Erwiderung des Met-Office auf das Audit des globalen Temperatur-Datensatzes von HadCRUT4

Das UK Met-Office begrüßt das Audit des australischen Forschers bzgl. der Fehler in HadCRUT4

Graham Lloyd, The Australian

Das britische Met-Office hat ein Audit des australischen Forschers John McLean begrüßt. In diesem wurde behauptet, dass der Autor gravierende Fehler im Datensatz HadCRUT4 der globalen Temperatur gefunden hat.

„Jedem tatsächlich erkannten Fehler wird bei der nächsten Aktualisierung Rechnung getragen“.

Das Met-Office sagte, dass automatische Untersuchungen bzgl. der Qualität der Ozean-Daten durchgeführt werden und dass monatliche Aktualisierungen der Temperatur auf dem Festland eine von Computern gestützte Qualitätskontrolle durchlaufen.

„Der HadCRUT-Datensatz enthält umfassende Unsicherheits-Abschätzungen bei der Zusammenstellung der globalen Temperatur“, sagte ein Sprecher. „Wir haben bereits den Bericht von Dr. John McLean aus dem Jahr 2016 akzeptiert und die darin beschriebenen Fehler korrigiert“.

———————————–

Ich bin sicher, dass die Schrott-Daten-Apologeten Mosher und Stokes uns bald sagen werden, warum dies nicht signifikant ist und warum HadCRUT einfach gut ist, und warum wir diesen Fehlern keine Aufmerksamkeit zuteil werden lassen sollten.

Jo Nova fügt hinzu:

Ohne dass sie zugeben, dass McLean gravierende Fehler gefunden hat, räumen sie ein, dass seine Anmerkungen zuvor im Jahre 2016 nützlich waren, und man verspricht, „die Fehler bei der nächsten Aktualisierung zu beseitigen“. Gut und schön, aber dann erhebt sich die Frage, warum ein PhD-Student in Heimarbeit Fehler findet, welche ein mit 226 Millionen Pfund ausgestattetes Institut mit 2100 Mitarbeitern nicht finden konnte.Bedeutsam ist, dass sie keiner der Behauptungen widersprechen.

Noch bedeutender ist, dass sie nicht einmal das Killer-Thema der Adjustierungen aufgrund von Messstellen-Verlagerungen erwähnen – die kumulative künstliche Abkühlung der ältesten Aufzeichnungen, um dem Bau von Gebäuden Rechnung zu tragen, die erst viele Jahrzehnte später gebaut wurden.

Mehr dazu hier.

Jo hat da einen wesentlichen Punkt. Warum eigentlich finden immer die Skeptiker die Fehler in den Klimadaten, Hockeyschläger und andere Datenmanipulationen, durchgeführt von einem üppig finanzierten Klima-Komplex?

Vielleicht liegt es daran, dass es sie einfach nicht kümmert, und Wissbegier muss immer hinter dem Geld zurückstehen. Genau wie Politiker, die nur auf die nächste Wahl schauen, ist die Klima GmbH so abhängig von dem Geldstrom geworden, dass deren einzige Sorge der nächsten großen Zuwendung gilt.

Eisenhower hatte recht. Wir kennen alle dessen Abschiedsrede, in welcher er uns warnte vor dem „Militär-industriellen Komplex“. Das ist sehr symbolträchtig. Aber was man vermutlich nicht weiß ist, dass diese Abschiedsrede eine zweite Warnung enthält, und zwar eine, die sich auf unsere jetzige Lage bzgl. Wissenschaft bezieht. Er sagte seiner Nation:

Für die tiefgreifenden Veränderungen unserer militärisch-industriellen Lage war und ist die technologische Revolution der letzten Jahrzehnte verantwortlich.

Im Zuge dieser Revolution rückte die Forschung in den Mittelpunkt und wurde gleichzeitig formaler, komplexer und teurer. Ein stetig steigender Anteil wird für, durch oder auf Anweisung der [US-]Bundesregierung durchgeführt.

Heute ist der einzelne Erfinder, der an seinem Schreibtisch vor sich hin werkelt, überschattet von Arbeitskreisen von Wissenschaftlern in Laboratorien und auf Testgelände. In gleicher Weise hat die freie Universität, einst die Speerspitze offenen Gedankenaustausches und wissenschaftlicher Entdeckungen, eine Revolution der Durchführung von Forschungen durchlaufen. Teils wegen der involvierten enormen Kosten wird ein Auftrag der Regierung praktisch zu einem Substitut der individuellen Wissbegierde. Für jede einstige Wandtafel gibt es heute Hunderte neuer elektronischer Computer.

Der Aspekt der Vorherrschaft von regierungsamtlichen Institutionen, Zuteilungen für Projekte und die Macht des Geldes über die Gelehrten der Nation muss sehr genau beobachtet werden.

Und dennoch, falls wir wissenschaftliche Forschungen und Erkenntnisse weiter respektieren wollen, was wir tun sollten, müssen wir uns der genauso großen und entgegengesetzten Gefahr bewusst sein, dass die Politik selbst zu einer Geisel einer wissenschaftlich-technologischen Elite werden kann.

Link: https://wattsupwiththat.com/2018/10/15/met-office-responds-to-hadcrut-global-temperature-audit-by-mclean/

Übersetzt von Chris Frey EIKE




IPCC erreicht Glaubwür­digkeit Null!

Mit Stand im Jahre 2015, welches sich nicht wesentlich vom Jahr 2010 unterscheidet, stammte über die Hälfte der Gesamt-CO2-Emissionen des Planeten aus nur drei Ländern:

Sowohl China als auch Indien haben eindeutig klargestellt, dass die dringendsten Bedürfnisse ihrer Völker jede Möglichkeit einer Beteiligung an Emissions-Reduktionen im Zuge des Pariser Klimaabkommens vor dem Jahr 2030 ausschließen. Stattdessen wird erwartet, dass China sein Emissionsniveau um 50% bis 100% steigern wird, während die International Energy Agency vorhersagte, dass Indien seine Emissionen im Zeitraum 2010 bis 2030 verdreifachen wird.

Falls Indien und China allein im Jahre 2030 23,31 GT freisetzen würden – etwa 65% der jetzigen Gesamt-Emissionen – ist das vom IPCC vorgegebene Ziel einer globalen Reduktion um 45% eindeutig unmöglich. Selbst wenn alle anderen 195 Mitglieder des UNFCCC (einschließlich der USA) irgendwie alle ihre CO2-Emissionen bis 2030 eliminieren könnten, würden immer noch viel weniger Reduktionen erreicht als die globale Abnahme verlangen würde.

Aber es kommt noch schlimmer. Die USA haben das Paris-Abkommen vollständig zurückgewiesen. Gestattet man den USA Emissionen von 5 GT im Jahre 2030 bedeutet das, dass die übrigen 194 Länder ihre Emissionen um 134% reduzieren müssten. Klar, dass es dazu nicht kommen kann.

Im SR15 wird berechnet, dass gegenwärtige nicht bindende Vereinbarungen unter dem Paris-Abkommen zu einer Erwärmung um mehr als 3°C führen würden. Diese Ziele sollen Treibhausgas-Emissionen im Jahre 2030 auf weniger als 58 GT CO2-Äquivalent drücken – eine Zunahme um fast 30% im Vergleich mit dem Niveau von 2014. Aber schon das erweist sich als viel zu ambitioniert, und nur sehr wenige Länder versuchen überhaupt erst, diese Ziele anzustreben.

Trotz der Tatsache, dass die Regierungen der Welt schon verkündet haben, dass selbst ihre intensivsten kollektiven Bemühungen nicht mehr erreichen können als einen Anstieg auf 46 GT CO2-Äquivalent, verlangt das IPCC eine Reduktion auf weniger als 30 GT CO2-Äquivalent. Ein solches Luftschloss kann nicht durch noch größere Anstrengungen erreicht werden und kann nur zu hilflosem Zusammenschlagen der Hände über dem Kopf führen.

Die Forderungen des IPCC sind verwegener als selbst das ambitionierteste, von der IEA in seinem World Energy Outlook 2017 ausgegebene Szenario. Grund hierfür ist, dass im SR15 nur jene modellierten Wege herangezogen werden, die vorstellbar zu 1,5°C führen, aber nicht Szenarien dessen, was überhaupt in der realen Welt möglich ist.

Man betrachte nur einmal die Ungeheuerlichkeit der 1,5°C-Phantasterei. Kohle, welche derzeit 37% der Weltenergie deckt, muss innerhalb von 11 Jahren komplett eliminiert werden. Aber der WEO17-Report stellt fest, dass Kohle weiterhin einen Anteil von 20% über die nächsten 20 Jahre behalten wird. Außerdem heißt es darin, dass CO2-Emissionen aus der Verbrennung von Öl im Transportwesen fast jenes Niveau erreichen würden, welches bis 2040 von Kohlekraftwerken ausgeht. Die IEA vermutet, dass ein Anstieg der Emissionen um 20% durch zunehmenden Luftverkehr und Hochsee-Schifffahrt bis 2040 die Emissions-Reduktionen der 280 Millionen Elektroautos weit überkompensieren wird (erwartet werden global bis zum Jahr 2040 2 Milliarden derartige Fahrzeuge).

Ein anderer IEA-Report vor einigen Tagen kam zu dem Ergebnis, dass Petrochemikalien der Haupt-Verbraucher des globalen Öls und für die Zunahme des Ölverbrauchs um ein Drittel bis 2030 verantwortlich sein werden (und um fast 50% bis 2050) – noch vor Lastwagen, Luftverkehr und Transportwesen.

Um das 2°C-Ziel zu erreichen, müsste die Abnahme bis zum Jahr 2030 20% betragen und um 2075 Null erreichen.

Ist das bezahlbar?

Die vom IPCC modellierten Wege zeigen, dass 2,4 Billionen Dollar investiert werden müssen in neue saubere Energie bis 2035 – jedes Jahr! Dazu merkt Bloomberg an, dass dies eine Steigerung der Investitionen in erneuerbare Energie in Höhe von 333,5 Milliarden Dollar im Jahre 2017 um das Siebenfache bedeutet. Das ist eine gesamtwirtschaftliche Investition von 48 Billionen Dollar. Die Zinsen allein (vielleicht 5% p.a.) würde 200 Billionen Dollar pro Monat ausmachen – das ist mehr als die ganze Welt derzeit für Bildung und Umweltschutz zusammen aufbringt.

Der Bericht sagt, dass „das Informationsmaterial der Gesamtkosten bzgl. Abschwächung von 1,5°C begrenzt ist und in dem Report nicht berücksichtigt worden ist“. Andere haben massive zusätzliche Ausgaben bzgl. Energie-Effizienz, Stromleitungen und Speicherung, CCS und andere Verfahren zur Kohlendioxid-Entfernung berechnet. Aber selbst mit diesen Schätzungen wird nicht versucht, einen Preis abzuschätzen für die „beispiellosen Änderungen sämtlicher gesellschaftlichen Aspekte“, welche das IPCC verlangt.

Man stelle sich einmal vor, nur ein Bruchteil dieser massiven Gelder würde stattdessen in Anpassung an das Klima investiert. Oder in Forschungen für Zukunfts-Technologien. Oder in die Bekämpfung von Armut.

Der Nobelpreisträger William Nordhaus verwendet komplexe Modelle, um Kosten und Nutzen zur Erreichung von Klimazielen zu taxieren. Er kommt zu dem Ergebnis, dass das optimierte Ergebnis ein Anstieg um 3,5°C bis zum Jahr 2100 wäre. Björn Lomborg sagt dazu:

Eine noch stärkere Reduktion des Temperaturanstiegs würde höhere Kosten als Vorteile verursachen, was der Welt potentiell einen Verlust von 50 Billionen Dollar bescheren könnte“

Ist das notwendig?

Dr. Judith Curry schreibt:

Auf dem Festland sind wir bereits über diese 1,5°C hinausgekommen, falls man es mit dem Jahr 1890 vergleicht. Um das Jahr 1820 war es über 2°C kühler“.

Alle vom IPCC gelisteten Risiken treten auf dem Festland auf, falls die Temperatur um mehr als 1,5°C über das vorindustrielle Niveau steigt. Sogar der Anstieg des Meeresspiegels wird durch Abschmelzen auf dem Festland getrieben. Und obwohl mit „vorindustriell“ per definitionem das Jahr 1750 gemeint ist, wird die Grundlinie der Temperatur bereits von 1850 bis 1900 festgelegt.

Willis Eschenbach stellt dazu unmissverständlich fest:

Wir haben das Experiment durchgeführt. Die Temperatur ist bereits um 2°C gestiegen – und das hat überall große Vorteile mit sich gebracht. Warum also sollte man hinsichtlich eines geringeren Anstiegs um 1,5°C hyperventilieren?“

Warum also hat das IPCC diesen jede Glaubwürdigkeit zerschlagenden Bericht veröffentlicht? Ein Bericht, der von 91 Wissenschaftlern aus 41 Ländern unter Hinzuziehung von über 6000 begutachteten Studien geschrieben worden ist?

Von anderen Entwicklungsländern, darunter Iran, Indonesien, Mexiko, die Türkei und Vietnam wird erwartet, dass sie ihre Emissionen bis 2030 signifikant steigern werden. Auch hinsichtlich des internationalen Transportwesens (o,6 GT) und der Luftfahrt (0,5GT) wird ein starker Anstieg erwartet.

Am anderen Ende der Skala stehen 47 weniger entwickelte Länder, welchen unter dem UNFCCC „spezielle Aufmerksamkeit zuteil wird aufgrund ihrer begrenzten Kapazität, auf den Klimawandel zu reagieren“. Nur von Annex II countries (OECD-Mitglieder) wird erwartet, dass sie Maßnahmen zu Emissions-Reduktionen ergreifen können.

Link: https://wattsupwiththat.com/2018/10/14/ipcc-achieves-net-zero-credibility/




Der #Klimawandel-Filz beim @SRF ist aufgeflogen !! #10vor10 @willesusanne @srfnews @srg_d

Am 08.10.2018 überschlug sich wiedermal die mediale Berichterstattung als der Weltklimarat IPCC seinen Sonderbericht über die angebliche Notwendigkeit zur Einhaltung eines „1,5°C-Ziel“ zu Begrenzung der Erderwärmung veröffentlichte. Tenor: Nun also nicht mehr 2 Grad, sondern nun nur noch 1,5 Grad Erderwärmung, um eine angebliche „Klimakatastrophe“ zu verhindern.

Bevor wir unsere Kritik am Schweizer Fernsehen SRF konkret thematisieren, möchten an dieser Stelle wohlwollend und lobend erwähnen, dass das Schweizer Fernsehen (SRF) seit April 2018 in Person von Katrin Winzenried und insbesondere durch den SRF-DOK-Autor Simon Christen die Seriösität und Fundiertheit unserer Recherchen überprüft hatte. Es wurden erstmalig Anfang September 2018 dem Schweizer Klimaforscher Thomas Stocker durch das SRF „unbequeme Fragen“ gestellt, die auf unseren Recherchen basieren. Es geht also. Endlich. Mindestens ein Achtungserfolg.

So hätte es selbstverständlich weitergehen können und sollen, aber das geschah im Rahmen der Berichterstattung über den IPCC-Sonderbericht am 08.10.2018 durch das Schweizer Fernsehen SRF leider nicht.

Als sich der neue IPCC-Sonderbericht für den 08.10.2018 ankündigte, haben wir am 08.10.2018 morgens um 07Uhr25 über Twitter das Schweizer Fernsehen im Vorfeld gebeten, kritisch über diesen Sonderbericht zu berichten und den SRF gebeten auch die dem SRF bereits bekannten Widersprüche zu erwähnen:

Aber wie bereits in der Vergangenheit festgestellt bewirken unsere höflich-formulierten Informationen nix, damit das SRF nun endlich die TV-Zuschauer auf die Widersprüche bei der angeblich gefährlichen Erderwärmung und beim „2-Grad-Ziel“ hinweist.

Aber dieses Mal ist nun das Schweizer Fernsehen SRF mit seiner Dreistigkeit und der Klimawandel-Zuschauer-Täuschung wohl etwas zu weit gegangen: Denn am 08.10.2018 ist nun der Klimawandel-Lobbyismus beim Schweizer Fernsehen aufgeflogen:

Am 08.10.2018 in der Schweizer Nachrichten Sendung „10vor10(vergleichbar mit „HEUTE-JOURNAL“, ZDF oder „TAGESTHEMEN“, ARD oder ZIB2, ORF) interviewte Susanne Wille zum aktuellen IPCC-Sonderbericht ihren Schwager(!) Andreas Fischlin, den bekannten Klimaforscher von der ETH-Zürich und aktuellen Co-Vorsitzenden des IPCC,ohne dass aber der TV-Zuschauer etwas davon merkte, dass dort vor der Kamera in Wirklichkeit ein „familiäres Gespräch“ geführt worden ist. Der TV-Zuschauer ging vielmehr davon aus, dass in dem Gespräch zwischen S. Wille und A. Fischlin kritischer, unabhängiger Journalismus mit der nötigen Distanz praktiziert wird. Aber dem war eben nicht so, wenn man sich die Familien-Verhältnisse der Familie Wille-Fischlin in diesem Gespräch klarmacht: Das Siezen und die Anrede mit „Herr Fischlin“ durch Susanne Wille in diesem Gespräch war nur gestellt und damit definitiv unehrlich. Sorry, aber mit dem obigen Wissen muss sich doch nun ein kritischer und Billag-Gebührenzahlender TV-Zuschauer des SRF doch hochgradig „verar…“ vorkommen, oder?

Wir behaupten: So dreist wie Susanne Wille wären noch nicht einmal die ebenfalls in der Kritik stehenden TV-Journalisten bei ARD und ZDF gewesen.

Vergleichen Sie das obige kritikwürdige Verhalten von Susanne Wille auch mit dem journalistischem Selbstverständnis , das sie noch vor wenigen Wochen am 31.07.2018 im Interview mit dem NDR-Medienmagazin „ZAPP“ behauptet:

O-Ton Susanne Wille bei Minute 1:32 im ZAPP-Interview:

Ich darf durchaus eine Haltung haben, aber ich muss immer darauf schauen, dass die Gegenseite das beste Argument ins Feld führen kann, dass ein Bericht keine Schlagseite hat, dass auch eine Reportage keine Schlagseite hat und das kann man verhindern, indem man immer überlegt, haben alle Seiten auch die richtigen und wichtigen Argumente ins Feld führen können. …

O-Ton Susanne Wille bei Minute 4:12 im ZAPP-Interview:

Ich habe einfach festgestellt, dass wir uns noch vielmehr erklären müssen. Manchmal sind wir Journalisten vielleicht auch in einer Blase. Und das meine ich jetzt nicht irgendwie parteipolitisch oder ideologisch, sondern: Wir setzen zuviel voraus und denken, dass Zuschauerinnen und Zuschauer verstehen, wie werden Themen ausgewählt, wie werden Gäste ausgewählt. Wie geht es einem Gast nach einem kritischen Interview? Was müssen wir alles eigentlich noch erklären, wie qualitativ guter Journalismus funktioniert. Das war meine Erkenntnis …

Die „tollen Worte“ der SRF-Journalistin Susanne Wille in diesem ZAPP-Interview vom 31.07.2018 sind durch das „familiäre Interview“ am 08.10.2018 mit Ihrem Schwager Andreas Fischlin komplett als Schwindel und Täuschung entlarvt worden. Die Glaubwürdigkeit der Susanne Wille dürfte wohl damit komplett am Ende sein, denn das Interview mit Ihrem Schwager A. Fischlin am 08.10.2018 widerspricht vielen Ihrer ach-so- tollen journalistischen Behauptungen in diesem ZAPP-Interview am 31.07.2018.

Susanne Wille antworte auf Twitter zu unser Kritk wie folgt:

Bei einem korrekten und glaubwürdigen journalistischen Selbstverständnis hätte Susanne Wille das Interview mit ihrem Schwager Andreas Fischlin am 08.10.2018 konsequent ablehnen müssen. Sie hätte auch die Moderation der gesamten „10vor10“-Sendung an diesem Tage ablehnen müssen, wenn weiterhin beabsichtigt gewesen ist, Andreas Fischlin zum IPCC-Sonderbericht live in der Sendung zu befragen. Aber auf diese Idee kam wohl die angeblich unabhängige Journalistin Susanne Wille nicht, sondern stattdessen nutzte sie wohl bewusst die „günstige Gelegenheit“ zu Gunsten ihres Schwagers, dem Klimaforscher.

Bei diesem von uns aufgedeckten familiären „Klimawandel-Filz“ bei „10vor10“ erklärt sich nun auch leider der erneute und peinliche Versprecher einer SRF Nachrichtensprecherin (dieses Mal: Susanne Wille), die am 08.10.2018 in Ihrer Moderation aus dem „2-Grad-Ziel“ erneut ein „2-Prozent-Ziel“ machte. Der gleiche peinliche Fehler war bereits der SRF1-TAGESSCHAU-Moderatorin Cornelia Boesch am 08.06.2015 passiert, worüber auch der Videoblog www.fernsehkritik.tv damals berichtet hatte:


Zur Info: Wir haben mindestens 11 (!) solcher „2Grad-2Prozent-Versprecher“ aus den diversen TV-Medien in unserem Video-Archiv. Das als Beleg der dubiosen „Klimawandel-Kompetenz“ von deutschsprachigen Journalisten, aber das nur am Rande.

Update vom 13.10.2018:
In der Schweizer – Hörfunksendung „Samstagsrundschau“ am 13.10.2018 passierte dann der Moderatorin Evelyne Kobler auch der „2-Prozent“-Fehler. Aber sie hat sich noch selbst korrigiert:

***

Aber der eigentliche Eklat vom 08.10.2018 in „10vor10“ ist jedoch, wie Susanne Wille das fachliche Gespräch mit Ihrem Schwager Andreas Fischlin am 08.10.2018 führte. So stellte Susanne Wille im Gespräch u.a. die folgende Frage:

Genau, das halbe Grad [gemeint ist die Herabsetzung des „2-Grad-Zieles“ auf ein „1,5-Grad-Ziel“ durch den Sonderbericht des IPCC] wird ja derzeit diskutiert. Im letzten [IPCC-]Bericht des Weltklimarates vor ein paar Jahren hatte man von zwei Grad geredet als Richtwert, jetzt plötzlich von einem halben Grad weniger 1,5 Grad. Hat denn die Wissenschaft geschlafen?

Diese rhetorische Frage „Hat denn die Wissenschaft geschlafen?“ war definitiv eine regelrechte „Steilvorlage“ für Andreas Fischlin, wodurch Andreas Fischlin „erklären“ konnte, wie das neue 1,5-Grad-Ziel „entstanden“ ist. Nach den Erklärungen von Andreas Fischlin über die Entstehung des „1,5-Grad-Zieles hätte Susanne Wille eigentlich kritisch bei Andreas Fischlin nachfragen müssen, ob es denn überhaupt der korrekte und glaubwürdige Weg für Wissenschaftler sein kann, wenn die Politik im Dezember 2015 auf der Klimakonferenz in Paris ein neues 1,5-Grad-Ziel ausruft, und dann – oh Wunder – die relevante Wissenschaft, die im neuen IPCC-Sonder-Bericht versammelt und zusammengefasst worden ist, genau dieses vorher ausgerufene Ziel von 1,5°C, also „deutlich unter 2 Grad“ auch dann knapp 3 Jahre später im Oktober 2018 – wie durch ein Wunder – in dem IPCC-Sonder-Bericht bestätigt wird. Ist DAS dann nicht vielmehr eine Wissenschaft, die ein Ergebnis bedient und eben eine nicht-neutrale, eine nicht-objektive und nicht-ergebnisoffene Wissenschaft, wenn die „Wissenschaft“ ein vorher proklamiertes, vorher-feststehendes Ergebnis (hier: Globale Erwärmung deutlich unter 2 Grad notwendig) bedient und bestätigt? Was sagen Sie dazu, Herr Fischlin, zu diesem Vorwurf? Diese Frage hätte Susanne Wille Ihrem Schwager Andreas Fischlin stellen müssen. Diese wichtige Frage kam aber von Susanne Wille am 08.10.2018 in „10vor10“ nicht.

Hinweis:
Dieser obige Blog-Artikel wurde in Absprache mit „Klimamanifest Heiligenroth“ um einige Themenbereiche gekürzt und wurde mit diesen weiteren lesenswerten Informationen am 12.10.2018, 07Uhr00 auf www.klimamanifest.ch in voller Länge erstveröffentlicht.




Petition: GEGEN DAS DIKTAT DER ÖKOLOGIE – FÜR FAIRE MEDIEN UND DIE RODUNG DES HAMBACHER FORSTES!

PRO LAUSITZER BRAUNKOHLE E.V. & INITIATIVEN VON PRO LAUSITZER BRAUNKOHLE E.V.

hier geht es zur Petition 




Ist Afrika klüger als Deutschland?

Die entsprechende Nachricht ist in den Energy News vom 10.4.2018 zu finden. Kenia baut ein 1 GW Kohlekraftwerk neuesten Typs in Lamu. Die Hintergründe für diese Entwicklung sind von hier aus schlecht zu beurteilen. Auf jeden Fall sind – wie schon seit längerem in Afrika – anscheinend auch die Chinesen irgendwie mit dabei. Und insbesondere sind auch die USA engagiert, welche als größte Geldgeber der Weltbank und des IMF diesen beiden Institutionen kritisch gegenüberstehen und gleichzeitig im Board der Afrikanischen Entwicklungsbank sitzen.

Der entscheidende Punkt scheint jedoch zu sein, dass der IMF seine Finanzierung an „Erneuerbare“ geknüpft hat und dies die inzwischen rechnenden afrikanischen Nationen für verhängnisvoll halten. Vielleicht waren ja einige Regierungsvertreter inkognito in Deutschland und haben sich über die deutsche Energiewende schlau gemacht. Das hätte bereits genügt.

Südafrika, Botwana und Zimbabwe gewinnen bereits den größten Anteil ihrer elektrischen Energie aus Kohleverbrennung. Australien, Bangladesh, Indien und natürlich an erster Stelle China bauen sie weiter aus. Generell ist eine Steigerung der Kohleverbrennung und der Trend zu neuen, modernen Kohlekraftwerken mit Filtern gegen Ruß, Aerosole und Staub (nicht gegen CO2, das kann man nicht wegfiltern) insbesondere in den ehemaligen Entwicklungsländern zu beobachten.

Wenn Deutschland mit der Energiewende so fortfährt und nicht komplett dem Energiewendewahnsinn den Garaus macht, hat dies zumindest doch einen Vorteil. Unsere Volkswirtschaft wird sich steigender Einnahmen aus dem Tourismus erfreuen. Einem Tourismus aus den oben genannten Entwicklungsländern, der staunend Zeuge sein will, wie sich ein ehemaliges modernes Industrieland selbst entleibt. Das ist touristisch sicher spannender als immer wieder nur Landschaften, alte Bauwerke und Museen zu besuchen.

 




Wenn etwas schlechter wird, hat die Schuld immer der Klimawandel …

Deutsche Stromversorgung bleibt verlässlich, aber …

Die Pressemitteilung der Bundesnetzagentur [2] dient dem Zweck, den deutschen Untertanen zu vermitteln, dass das EEG ein Segen für unser Energiesystem ist und alle bösen Stimmen, welche Probleme vermitteln wollen, Unrecht haben. Wenn es überhaupt Probleme gibt, dann ist es der Klimawandel mit seinen unerbittlichen Folgen:
BNetzA: [2] Vizepräsident Franke: „Deutsche Stromversorgung bleibt verlässlich“ … Die Energiewende und der steigende Anteil dezentraler Erzeugungsleistung haben weiterhin keine negativen Auswirkungen auf die Versorgungsqualität“, so Franke weiter …

Allerdings wurde auch festgestellt, dass zwischen dem Jahr 2017 und dem Jahr 2016 die Länge der Ausfallzeiten angestiegen ist:
BNetzA: [2] Im Jahr 2017 lag die durchschnittliche Unterbrechungsdauer je angeschlossenem Letztverbraucher in der Nieder- und Mittelspannung bei 15,14 Minuten. Im Jahr 2016 lag sie bei 12,80 Minuten ...
Doch liegt das selbstverständlich nicht am EEG, sondern dem bekannten Erdzerstörer (AGW-)Klimawandel, der wie allgemein bekannt, auch Deutschland mit zunehmendem Extremwetter „geißelt“ [3]:
BNetzA: [2]Anstieg wegen extremer Wetterereignisse
… Ausfallzeiten im Verteilnetz, deren Ursache in Wetterereignissen liegen, haben sich gegenüber dem Vorjahr mehr als verdoppelt. Hierunter fallen beispielsweise Stürme, Hochwasser oder Schnee …
„Ursache für den Anstieg der Versorgungsunterbrechung in Mittel- und Niederspannungsebene sind vor allem die Zunahme extremer Wettereignisse.

Was die Bahn vormacht – bei schlechtem Wetter den Zugverkehr einzustellen – weil man ihr solches nicht zumuten kann, scheint man bei der Stromversorgung wohl auch anzudenken.

Nun gibt es in Deutschland aber keine Zunahme von Extremwetter …

Und so stellt sich die Frage: wie kommt die Bundesnetzagentur auf ihre Aussage, dass der Anstieg der Länge der Ausfallzeiten vom Jahr 2016 auf das Jahr 2017 zunehmenden, extremen Wetterereignissen geschuldet ist?
Vergleichen wir dazu die Extremereignisse dieser beiden Jahre.

Wetterrückblick Deutschland zum Jahr 2016

DWD 29.12.2016: Deutschlandwetter im Jahr 2016
… Weit überdurchschnittliche Niederschlagssummen im Januar und Februar 2016 beendeten die große Trockenheit, die 2015 vor allem im Süden und in der Mitte Deutschlands geherrscht hatte. Während Deutschland in den vorangegangenen Aprilmonaten oft mit frühsommerlichen Temperaturen verwöhnt worden war, brachte diesmal ein Kaltlufteinbruch im letzten Drittel Schnee bis ins Flachland. Ende Mai und im Juni entluden sich schwere Gewitter mit extremen Regenfällen, die örtlich zu katastrophalen Überflutungen führten. Damit war in der ersten Jahreshälfte 2016 an zahlreichen DWD-Stationen schon mehr Niederschlag gefallen als im ganzen Jahr 2015. Dann stellte sich die Großwetterlage um: Die folgenden Monate blieben teils erheblich zu trocken, ab Juli rollten mehrere Hitzewellen heran. Der September gehört zu den drei wärmsten seit Aufzeichnungsbeginn 1881, der Oktober und November blieben zu kühl. Der Dezember verlief zwar deutlich kälter als im Jahr 2015, aber fast genauso schneearm.

Wetterrückblick Deutschland zum Jahr 2017

2017 war ein Jahr der Wetterextreme
02.01.2018 – 2017 war erneut ein sehr warmes Jahr, unbeständig und oft extrem. Vizepräsident Dr. Becker berichtet darüber unter anderem in Tagesschau und Tagesthemen.
Das Wettergeschehen zeigte im Jahresverlauf oft wenig Beständigkeit, dafür aber immer wieder extreme Ausprägung. Der Januar begann mit teilweise strengen Nachtfrösten, die zahlreiche Gewässer zufrieren ließen. Im Februar schien der Winter bereits auf dem Rückmarsch zu sein: Im Flachland fiel verbreitet keine einzige Schneeflocke. Der März war sogar der wärmste seit Messbeginn 1881. Im April folgte dann jedoch ein jäher Kälterückfall mit Minusgraden, der sich katastrophal auf die schon sehr weit fortgeschrittene Vegetation auswirkte. Nach nass-kühlem Beginn rollte bereits Ende Mai die erste Hitzewelle heran. Der Sommer präsentierte sich im Süden sehr heiß, im Norden eher kühl. Dabei herrschte zunächst Trockenheit, im Juli und August fiel dann oft reichlich Niederschlag. Auch der September verlief nass und dabei etwas zu kühl. Der Oktober gehörte dann wieder zu den wärmsten seit 1881. Die Orkane „Xavier“ und „Herwart“ forderten Menschenleben und verursachten große Schäden. Anfang November begann eine längere Niederschlagsperiode mit nur wenigen trockenen Tagen, die bis zum Jahresende anhielt. In der Adventszeit fiel gelegentlich auch im Flachland etwas Schnee, der jedoch bei Tauwetter immer wieder rasch verschwand.

Was sagte ein Versicherer dazu:
GDV 27.12.2017: Naturgefahrenbilanz 2017
… Wie bereits im Jahr 2016 fällt die Naturgefahrenbilanz 2017 mit erneut 2 Milliarden Euro Versicherungsleistung
unterdurchschnittlich aus: Es wüteten nur wenige, regional begrenzte Unwetter. Schon diese Wetterlagen können hohe Schäden verursachen; große Naturkatastrophen blieben 2017 allerdings aus.

Bild 1.1 Verlauf jährlicher Schadensaufwand durch Umweltereignisse. Quelle: GDV

Bild 1.2 Verlauf Sturmereignisse in Deutschland. Quelle: MunichRE NatCatSERVICE

Bild 1.3 Verlauf Sturmereignisse in Westeuropa. Quelle: MunichRE NatCatSERVICE

Was war dazwischen der Extremwetter-Unterschied?

Die Bundesnetzagentur berichtet als Ursache der „Probleme“:
BNetzA: [2]Hierunter fallen beispielsweise Stürme, Hochwasser oder Schnee …

Nun gab es Hochwasser und Schnee nicht im Jahr 2017, sondern im Jahr 2016. Nur bei den Stürmen war das Jahr 2017 extremer. Das vom DWD für 2017 gemeldete „Jahr der Wetterextreme“ bezog sich vor allem auf Temperatursprünge und „reichlich Niederschlag“, der allerdings keinesfalls extrem war.
Die Obstbäume haben darunter – vor allem von der Frühjahrskälte – sehr, teils extrem gelitten. Dass ein elektrisches Versorgungssystem auch davon beeinflusst würde, ist aber kaum anzunehmen.
Und somit bleibt, dass von den drei gemeldeten „Extremeinflüssen“ zwei im Jahr 2016 heftiger waren. Das dritte – Stürme – im Jahr zwar stärker, im längerfristigen Verlauf aber nicht herausragend (Bild 1.2).

Dabei ist diese Betrachtung, kurze Zeiträume, hier sogar nur eine Jahresdifferenz, als Anstieg wegen extremer Wetterereignisse“ deuten zu können, vollkommen unsachlich, aber inzwischen leider in der Berichterstattung von (politisch gelenkten) Organisationen Standard. Solche Betrachtungen sind jedoch zur Generierung von „Extremen“ erforderlich, da auch in Deutschland mittel- und langfristig keinerlei Zunahme von AGW-Klimawandel-bedingten Extremereignissen messbar ist:
EIKE 6. Oktober 2018: Das FAZ-Klima-Interview vom 2.10.2018: Nachdem sie das Ziel endgültig aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen
EIKE 09. September 2018: [3] Deutschland in den Klauen des Klimawandels
kaltesonne
Unwetter in Europa: Nicht mehr Überflutungen als früher (3.6.2018)
Hessischer Starkregen aus dem Juli 2014 eine Folge des Klimawandels? Eher unwahrscheinlich. Statistiken zeigen eine Abnahme schwerer sommerlicher Regengüsse während der letzten 100 Jahre (21.8.2014)
Deutscher Wetterdienst: Es gibt in Deutschland keinen Trend zu heftigeren Regenfällen (8.6.2016)
Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute (5.8.2012)
PIK endlich einmal mit guten Nachrichten: Sturmaktivität der nördlichen mittleren Breiten hat signifikant abgenommen (3.10.2016)
Neue begutachtete Studie in Nature Climate Change: Klimawandel lässt Hochwasser in Europa wohl in Zukunft seltener werden (11.6.2013)

Wie sehen die Versorgungsdaten eigentlich aus?

Interessant wird es (wieder), wenn man sich die Versorgungsdaten bei der Bundesnetzagentur selbst ansieht, grafisch aufbereitet und betrachtet, welche Aussagen daraus abgeleitet werden können.

Für die Grafiken vorab die Erklärung der verwendeten Kenndaten:
Die Bundesnetzagentur ermittelt aus den von den Netzbetreibern übermittelten Daten zu Versorgungsunterbrechungen mit einer Dauer über drei Minuten bestimmte Kennzahlen.
Kennzahlen bzw. Indizes
SAIDIEnWG (System Average Interruption Duration Index)
Spiegelt die durchschnittliche Versorgungsunterbrechung je angeschlossenen Letztverbraucher innerhalb eines Kalenderjahres wieder.
ASIDIEnWG (Average System Interruption Duration Index)
Spiegelt die durchschnittliche Versorgungsunterbrechung je angeschlossenen Bemessungsscheinleistungen innerhalb eines Kalenderjahres wider.
SAIDIEnWG-Gesamt
Summe aus dem SAIDI
EnWG und dem ASIDIEnWG

Zuerst das Gesamtbild, wie es die BNetzA zeigt. Die Darstellung der Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 zeigt keinen verschlimmernden Einfluss durch einen „Anstieg wegen extremer Wetterereignisse“. Nur ist richtig zu erkennen, dass das Jahr 2017 gegenüber dem Vorgängerjahr leicht schlechter ist, der Gesamttrend aber seit dem Jahr 2006 deutlich zu niedrigeren Versorgungsunterbrechungen zeigt. Ein negativer Trend, oder eine signifikante Trendumkehr ist daraus nicht ableitbar.

Bild 2 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006. Quelle: BNetzA

Im folgenden Bild 3 sind anhand der verfügbaren Einzeldaten die Unterbrechungen nach Netzart dargestellt. Man sieht, dass Die Ausfallzeiten im Niederspannungsnetz fast durchgehend gleich bleiben, eher abnehmen, nur im Mittelspannungsnetz nahmen sie das eine Jahr von 2016 auf 2017 etwas deutlicher zu.
Trotzdem textet die BNetzA;
BNetzA: [2]„Ursache für den Anstieg der Versorgungsunterbrechung in Mittel- und Niederspannungsebene sind vor allem die Zunahme extremer Wettereignisse.

Bild 3 Durchschnittliche Versorgungsunterbrechungen seit 2006. Grafik vom Autor erstellt. Datenquelle: BNetzA

Von der BNetzA lassen sich auch die Daten der einzelnen Bundesländer laden. Dann sehen die Verläufe wie im folgenden Bild 4 aus. Dabei ist zu beachten, dass die BNetzA-Daten anstelle mit dem Jahr 2006 wie in der vorhergehenden Übersichtsgrafik, erst mit dem Jahr 2008 beginnen. Dann hat das Jahr 2017 einen „Zuwachs“ seit 2008 von 2,8 % (was nicht mehr als statistisches Rauschen ist). Seit dem Jahr 2011 aber eine Verringerung von -24 %!
Ergänzt man jedoch die fehlenden, zwei Anfangsjahre, dann weist das Jahr 2017 plötzlich eine Verringerung um -19,6 % aus!

Bild 4 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 mit prozentualer Normierung auf das Jahr 2006 (Y-Achse: % Abweichung). Die Daten von 2006/2007 für den Mittelwert sind vom Autor zugefügt. Grafik vom Autor erstellt. Datenquelle: BNetzA

Schlägt der Klimawandel nur im (falsch wählenden) Osten zu?

Auffallend am Bild 4 ist, dass sich herausragend schlechte Netzdaten auf wenige, ausschließlich im Osten gelegene Länder konzentrieren, von denen aber trotzdem die meisten von 2016 auf 2017 eine Verbesserung zeigen. Und es fällt natürlich auch auf, dass trotzdem in Summe eine Verbesserung und vor allem weder langfristig, noch kurzfristig, keinerlei Verschlechterungstendenz vorliegt.

Es kann aber unmöglich sein, dass sich der „schlimme Einfluss“ der „Zunahme extremer Wettereignisse“ ausgerechnet auf wenige, im Osten konzentrierte Bundesländer beschränken sollte.
Nimmt man die Ost-Versorgungsgebiete (welche ausschließlich im Bereich des Betreibers 50herz liegen) weg (Bild 5), verhalten sich die Schwankungen der Versorgungsstabilität auf einmal vollkommen normal und in einer „sinnvollen“ Schwankungsspanne. Wirklich nichts – auch nicht die geringste Spur – lässt auf den signifikanten Einfluss oder eine signifikante Einfluss-Zunahme von Extremereignissen schließen.

Die Frage stellt sich, wie der unerbittliche Klimawandel mit seinem angeblich schon zunehmendem Extremwetter sich so konsequent auf die Ost-Versorgungsgebiete eines Betreibers „beschränkt“.

Bild 5 Gesamtzeit der Versorgungsunterbrechungen seit dem Jahr 2006 mit prozentualer Normierung auf das Jahr 2006 (Y-Achse: % Abweichung). Daten von Bild 4 ohne die Ost-Versorgungsgebiete (außer Berlin), Maßstab wie Bild 4. Grafik vom Autor erstellt. Datenquelle: BNetzA

Dafür muss – und wird – es ganz andere Erklärungen geben. Zum Beispiel könnte die Folgende ein kleiner Hinweis sein:
energatemessenger 02.01.2018 [4]Dass der Netzausbau zur Stabilisierung der Kosten für Redispatch- und Einspeisemanagement-Maßnahmen beiträgt, zeigt das Beispiel „Thüringer Strombrücke“. Die Kuppelleitung wurde im November 2017 vollständig in Betrieb genommen und ist ein wesentlicher Faktor, warum sich die Engpasskosten im Netzgebiet des ostdeutschen Übertragungsnetzbetreibers 50 Hertz stabilisiert haben.

Und somit kann man schon einmal über die BNetzA-Pressemitteilung eine Aussage treffen:
Die BNetzA in Vertretung durch ihren Vizepräsidenten Franke, hat in ihrer Pressemitteilung wie üblich, in vorauseilendem Gehorsam bewusst eine politisch gewünschte Klimawandel-Tendenzaussage „dazugedichtet“.
Der Autor hat dazu bei deren Pressestelle nachgefragt und ist auf die Antwort gespannt.

Wenn es nicht am Klimawandel liegt, wer könnte trotzdem einen Trend hervorrufen?

Die bisherige Darstellung zeigt, dass die Netzstabilität – bezogen auf die Länge der Ausfallzeiten – stetig besser geworden ist.
Allerdings kaschieren diese Darstellungen vollständig bereits im System erkennbare und wirklich stetig zunehmenden Probleme, welche die BNetzA in ihrer Pressemitteilung allerdings verschwiegen hat. Es gibt sie bereits massiv und bald werden Blackouts folgen.

Die Kosten haben wir schon, die Verschlechterung kommt noch

Allerdings nicht wegen eines sich ständig verändernden Klimas, sondern genau wegen dem, was offiziell nicht sein darf:
BNetzA: [2]Die Energiewende und der steigende Anteil dezentraler Erzeugungsleistung haben weiterhin keine negativen Auswirkungen auf die Versorgungsqualität“, so Franke weiter …

Dass es bisher keine negativen Auswirkungen hat, ist ausschließlich der gerade noch technisch möglichen Netzstabilisierung zu verdanken und diese kostet schon aktuell (den privaten Strombeziehern, die es fast ausschließlich bezahlen müssen) eine Menge Geld:
energatemessenger: [4] Bayreuth/Berlin (energate) – Die Kosten zur Stabilisierung des Stromnetzes sind auf ein Rekordniveau gestiegen. Beim Übertragungsnetzbetreiber Tennet belaufen sich die Kosten für netzstabilisierende Maßnahmen für das Jahr 2017 auf voraussichtlich mehr als eine Mrd. Euro, gab das Unternehmen bekannt. Dieser Höchstwert entspreche einem Zuwachs von etwa 50 Prozent gegenüber 2016 (660 Mio. Euro). Im bisherigen Rekordjahr 2015 betrug der Wert 710 Mio. Euro … „Wir haben mehr denn je damit zu tun, das Netz zu stabilisieren“, sagte Tennet-Geschäftsführer Lex Hartman. Grund für den hohen Einsatz von Netz- und Systemsicherheitsmaßnahmen sei der unzureichende Netzausbau, der mit dem Erneuerbarenumbau nicht Schritt halte. „Bis das Energiewende-Netz gebaut ist, werden wir das Stromnetz weiter mit teuren Notmaßnahmen stabilisieren müssen“, so Hartman. Besserung sei nicht in Sicht: „Ich sehe für die nächsten Jahre keine Entspannung. Bevor es besser wird, wird es erst einmal schlechter.“

Bild 6 Entwicklung der Redispatch-Maßnahmen im deutschen Stromnetz. Quelle: BNetzA

Die Versorger und die Politik wissen um die kommende Problematik und bauen schon für den ersten Blackout (und die folgenden) vor:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Die Süddeutsche Zeitung meldete es am 6./7.Oktober 2018 als eine grandiose, dem Fortschritt dienende Maßnahme:
SZ: Intelligenter Strom – Bayernwerk weiht Europas modernste Energieanlage ein
… hat die Bayernwerk AG am Freitag in Dachau ihre neue Leitstellen-Technologie in Betrieb genommen. Sinn und Zweck der 22 Millionen teuren Hard- und Software ist es, künftig flexibel und effizient auf ein Zuviel oder Zuwenig an eingespeistem Strom und Bedarf reagieren zu können … somit haben die Betreiber die Kontrolle über Einspeisung und Verbrauch, Zustand der Leitungen, Störungen und sogar über Wind und Wetter … Personal spart sich das Bayernwerk dadurch nicht. „Geht die Entwicklung so weiter, müssen wir sogar noch mehr Techniker einstellen“ ..
.

Intelligenz“ beginnt in Deutschland, wenn ein Schalter betätigt werden kann

Die im SZ-Artikel von der Redakteurin, dem Staatssekretär Pschierer und dem Bayernwerk als Betreiber hochgelobte, „modernste Energieanlage Europas“ liefert also „Intelligenten Strom“.
Dazu muss man seine eigene schon sehr stark reduzieren (so man sie vorher hatte), um dem Strom eine Intelligenz zu geben. Denn diese „Energieanlage“ liefert keine Energie, sondern macht nichts weiter, als Strom zu- und abzuschalten, wenn zu wenig, oder zu viel vorhanden ist. Und natürlich ermittelt und verrechnet sie die Kosten, mit denen die Verbraucher zu belasten und die Profiteure zu belohnen sind.
Der Autor kann dem Zu- und Abschalten von Strom trotzdem nach wie vor keine besondere „Intelligenz“ einräumen und schon gar nicht feststellen, dass der Strom dank dieser „Schulung“ irgendwie eine Intelligenz bekommen hätte.

Spinnt man diese „Intelligenz“ nämlich weiter, dann haben die Mangel-Stromversorgungen in Afrika weltweit die größte Intelligenz. Da die (Strommangel-)Schaltungen dort nicht von teuren Computersystemen, sondern direkt von Menschen „gelenkt“ und ausgeführt werden, sind diese wohl auch die intelligentesten auf der Welt ….

Aber Intelligenz durch Schaffen eines in sich stabilen Versorgungssystems – wie es über viele Jahrzehnte in Deutschland weltweit beispielhaft war – ist „langweilig“ und entspricht nicht mehr modernen Zeiten. Vor allem konnte am früheren, inhärent stabilen Energiesystem kein Wählerklientel verdienen:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern
EIKE 14.04.2018: Die wundersame Speicherung des EEG-Zappelstroms, oder: Die nächste Abzocke privater Stromkunden durch die EEG-Energieernter
Von einem modernen System erwartet „man“ keine Stabilität, sondern fordert, dass es hip ist:
EIKE 27.07.2017: Der letzte Enabler hat ja einen super Elevator-Pitch hingelegt, aber ohne Blockchain sehe ich da keine scalability

Damit Deutschland Intelligenz ausreichend bekommt, wird entsprechend ausgebildet

Die Wahl-Werbeslogans der Parteien sind inzwischen so schlecht und nichtssagend, dass man fast Beliebiges in sie hineininterpretieren kann. Bei einer Partei könnte man interpretieren, dass sie einen Slogan, der aus der Maobibel – oder modifiziert, aus der ehemaligen DDR – stammen könnte verkündet: „Übersetzt“: Zuerst indoktrinieren wir die Kinder, dann indoktrinieren diese die Welt, nun auch in Bayern umsetzen will.

Bild 7 Wahlplakat zur Bayernwahl. Foto vom Autor

Dazu passt, was man im Bund angeblich vorhat: Den Untertanen soll die Nutzung alternativer Information endlich eingeschränkt werden. Zu Viele Untertanen zeigen inzwischen „eingeschränkte Kompetenz“, was die Politik zunehmend beunruhigt:

Bild 8 News-Information (Auszug). Quelle: Zeitschrift Smartphone 7/18 Okt. Nov. 2018

Die Lokalzeitung des Autors hat das auch schon festgestellt. Die unter 18 dürfen inzwischen ja wählen üben. Das erste Ergebnis zeigte, dass die 12- bis 17jährigen in Bayern doppelt so oft GRÜN wählen (würden), als die Erwachsenen und nur verschwindend die AFD. Die Lokalredaktion konnte sich im Bericht vor Begeisterung über die politische Sachkunde der heutigen Jugendlichen und deren vorbildliches Wahlverhalten kaum bremsen.

Quellen

[1] ZDF 05.10.2018 : Bundesnetzagentur – Weniger Stromausfälle gemeldet

[2] BNetzA 05.10.2018: Versorgungsunterbrechungen Strom 2017

[3] EIKE 09. September 2018: Deutschland in den Klauen des Klimawandels

[4] energatemessenger 02.01.2018:Netzstabilität Kosten für Netzeingriffe auf Rekordniveau




Brandaktuell: Untersuchung des Globale-Erwärmung-Daten­satzes zeigt, dass er von Fehlern wimmelt

Vom IPCC:

Globale Erwärmung um 1,5°C – ein Sonderbericht des IPCC zu den Auswirkungen einer globalen Erwärmung um 1,5°C über das vorindustrielle Niveau und damit zusammenhängende Treibhausgas-Emissionen im Zusammenhang mit der Intensivierung der globalen Bemühungen gegen die Bedrohung des Klimawandels, nachhaltige Entwicklung und Bemühungen zur Bekämpfung der Armut.

Das hat man nun von Konsens-Wissenschaft – groupthink ohne Qualitätskontrolle.

HadCRUT4 ist der primäre, vom IPCC herangezogene globale Temperatur-Datensatz für dessen dramatische Behauptungen über eine „vom Menschen verursachte globale Erwärmung“. Es ist auch der Datensatz im Mittelpunkt von „Klimagate 2009“, gemanagt von der Climate Research Unit (CRU) an der East Anglia University.

Die Überprüfung ergab über 70 bedenkliche Bereiche – bedenklich hinsichtlich der Qualität und der Präzision der Daten.

Einer Analyse des australischen Forschers John McLean zufolge ist der Datensatz viel zu schlampig, um selbst von Klimawissenschaftlern ernst genommen werden kann, geschweige denn von einer so einflussreichen Institution wie dem IPCC oder von den Regierungen der Welt.

Wesentliche Punkte:

Die Hadley-Daten sind unter den von den wichtigsten Datensätzen am meisten angeführten Daten zur Klima-Modellierung und damit für politische Maßnahmen, bei denen Milliarden von Dollars involviert sind.

Mclean fand sonderbar unglaubwürdige Daten sowie systematische Adjustierungs-Fehler, große Lücken ohne irgendwelche Daten, Fehler bei der Zuordnung von Standorten, Grad Fahrenheit, die als Grad Celsius angegeben worden sind, und Rechtschreibfehler.

Es wurden keinerlei Qualitätskontrollen durchgeführt: Ausreißer, welche offensichtliche Fehler sind, wurden nicht korrigiert – eine Stadt in Kolumbien soll im Jahre 1978 drei Monate lang eine mittlere tägliche Temperatur von über 80°C aufgewiesen haben. Eine Stadt in Rumänien sprang direkt aus dem Sommer des Jahres 1953 in einem Frühlingsmonat mit minus 46°C. Dies sind vermeintlich „mittlere“ Temperaturen für einen ganzen Monat insgesamt. Aus St. Kitts, einer Insel in der Karibik, wurde einen ganzen Monat lang eine Temperatur von 0°C aufgezeichnet – und das zwei mal!

Die Temperaturen der gesamten Südhemisphäre im Jahre 1850 und der folgenden drei Jahre beruhen auf einer einigen Station in Indonesien und einigen zufälligen Schiffsbeobachtungen.

Wassertemperaturen der Ozeane repräsentieren 70% der Erdoberfläche, aber einige Messungen stammen von Schiffen, welche von Standorten 100 km landeinwärts geortet wurden. Andere Meldungen stammen von Schiffen in Häfen, wo die Wassertemperatur kaum repräsentativ für den offenen Ozean sein dürfte.

Wenn ein Thermometer an einer anderen Stelle aufgestellt wird, lässt die Adjustierung vermuten, dass die alte Messstelle immer zugebaut war und „aufgeheizt“ wurde durch Beton und Gebäude. In Wirklichkeit kam die künstliche Erwärmung schleichend daher. Mittels einer Korrektur aufgrund von Gebäuden, die im Jahre 1880 noch gar nicht existierten, wurden alte Aufzeichnungen künstlich kälter gemacht. Adjustierungen von nur wenigen Änderungen der Messorte können ein ganzes Jahrhundert lang künstliche Erwärmungstrends erzeugen.

Details der schlimmsten Ausreißer

Im April, Juni und Juli 1978 meldete die Station Apto Uto (Kolumbien, ID:800890) eine mittlere monatliche Temperatur von jeweils 81,5°C; 83,4°C und 83,4°C.

Die Monats-Mitteltemperatur vom September 1953 in der rumänischen Stadt Paltinis wird mit -46,4°C angegeben (in anderen Jahren betrug das September-Mittel etwa 11,5°C).

Am Golden Rock Airport auf der Karibikinsel St. Kitts werden für Dezember 1981 und 1984 mittlere monatliche Temperaturen von 0,0°C gemeldet. Aber von 1971 bis 1990 betrug das Mittel in allen anderen Jahren 26,0°C.

Mehr dazu bei Jo Nova.

Der Report

Unglücklicherweise liegt der Report hinter einer Zahlschranke. Aber die beträgt nur 8 Dollar.

Der Forscher John McLean führte seine Forschungen ausschließlich auf eigene Kosten durch, so dass ihm die Zahlschranke ein wenig Ausgleich bietet für die Zeit und Mühe, die er aufgebracht hat. Er schreibt:

Dieser Report basiert auf einer Aufgabenstellung für meine PhD-Arbeit. Ich erhielt meinen PhD im Dezember 2017 von der James Cook University in Townsville, Australien. Die Aufgabenstellung beruhte auf dem HadCRUT4-Datensatz und damit zusammenhängenden Datensätzen mit Stand von Ende Januar 2016. Dabei wurden 27 bedenkliche Umstände hinsichtlich des Datensatzes erkannt.

Die Versionen vom Januar 2018 der Datensätze enthielten nicht nur Aktualisierungen für die inzwischen vergangenen 24 Monate, sondern auch zusätzliche Messpunkte und daraus resultierende Änderungen der monatlichen globalen mittleren Temperatur-Anomalie bis zurück zum Beginn des Datensatzes im Jahre 1850. Der Report zieht die Daten vom Januar 2018 heran und überarbeitet die Analyse der ursprünglichen These bzw. erweitert diese, manchmal mit dem Weglassen unbedeutender Dinge, manchmal mit der Aufteilung wichtiger Themen und manchmal mit der Analyse neuer Bereiche. Die Ergebnisse werden in diesem Report beschrieben.

Die These wurde von Experten außerhalb der Universität unter die Lupe genommen, mit Bezug auf die Kommentare der Inspektoren überarbeitet und dann von der Universität akzeptiert. Der Prozess war zumindest äquivalent zu einem „peer review“, wie es von wissenschaftlichen Journalen durchgeführt wird.

Ich habe eine Ausgabe gekauft und daraus die folgende executive summary erstellt. Ich empfehle jedem dringend, ebenfalls eine Ausgabe zu kaufen und seine Arbeit zu unterstützen.

EXECUTIVE SUMMARY

Soweit ich weiß, ist dies das erste Audit des HadCRUT4-Datensatzes, also des Haupt-Datensatzes, der die Grundlage bildet für Klimazustands-Berichte des IPCC. Regierungen und das UNFCCC stützen sich schwer auf die IPCC-Berichte, so dass unabdingbar ist, dass die Temperaturdaten präzise und zuverlässig sind.

Diese Überprüfung zeigt, dass nichts dergleichen der Fall ist.

Über 70 Bereiche wurden untersucht, welche den gesamten Prozess abdecken von der Messung der Temperaturen bis zur Erstellung des Datensatzes, den daraus abgeleiteten Daten (wie etwa Mittelwerte) und deren eventueller Veröffentlichung. Die Ergebnisse (in kompakter Form in Anhang 6 gezeigt) enthalten sogar einfache Dinge wie offensichtlich falsche Daten, beschönigte Mängel von Daten, bedeutende, aber fragwürdige Hypothesen und Temperaturdaten, die unrichtig auf eine Art und Weise adjustiert worden sind, dass sie Erwärmung übertreiben.

So wurden beispielsweise Stationen gefunden, aus denen mittlere monatliche Temperaturen über 80°C vorlagen, zwei Beispiele einer Station in der Karibik mit gemeldeten mittleren Dezember-Temperaturwerten um 0°C und eine Station in Rumänien mit einer Meldung über ein September-Temperaturmittel um -45°C, wo doch das typische Septembermittel etwa 10°C beträgt. Als Clou des Ganzen gibt es auch Meldungen von Schiffen, die Standorte angaben, welche über 80 km landeinwärts liegen.

Es scheint, dass die Lieferanten der Temperaturdaten von Land und See keinerlei Checks auf grundlegende Fehler durchgeführt haben, und die Personen, welche den HadCRUT4-Datensatz erzeugten, haben diese Fehler nicht gefunden und auch keinerlei Fragen gestellt.

Das Verfahren zur Erstellung des Datensatzes hat einige Fehler entfernt, aber es wurde ein Satz von zwei Werten verwendet, berechnet aus einem Teil der Daten, aus denen jedoch vor der Berechnung die Fehler nicht korrigiert worden waren.

Datenmangel ist ein reales Problem. Der Datensatz beginnt im Jahre 1850, aber über zwei Jahre lang zu Beginn der Aufzeichnungen stammten die Festlands-Daten der Südhemisphäre von einer einzigen Station in Indonesien. Nach fünf Jahren gab es in jener Hemisphäre ganze drei Stationen. Globale Mittelwerte werden aus den Mittelwerten von jeder der beiden Hemisphären berechnet, so dass diese wenigen Stationen einen enormen Einfluss auf das haben, was vermeintlich „global“ genannt wird. Bezogen auf die Anzahl der Daten ist der Prozentsatz der Welt (oder der Hemisphäre) welche die Daten abdecken. Dem Verfahren der Berechnung der Abdeckung mit Daten in dem Datensatz zufolge wurden 50% der globalen Abdeckung erst im Jahre 1906 erreicht und 50% der Südhemisphäre erst im Jahre 1950.

Im Mai 1861 betrug die globale Abdeckung gerade mal 12% – weniger als ein Achtel. In vielen der Jahre von 1860 bis 1880 bestand die vermeintlich globale Abdeckung nur aus Europa sowie den Haupt-Schiffsrouten und Häfen, also nur etwa 13% der Erdoberfläche. Um aus diesen Daten Mittelwerte zu berechnen und sich auf diese als „globale Mittelwerte“ zu berufen muss man schon sehr leichtgläubig sein.

Ein weiteres bedeutendes Ergebnis dieses Audits ist, dass viele Temperaturwerte unsachgemäß adjustiert worden sind. Die Adjustierung von Daten zielt darauf ab, eine Temperaturaufzeichnung zu erzeugen, welche sich ergeben hätte, falls man an den gegenwärtigen Messpunkten und mit der Ausrüstung derselben die Temperatur vor Ort gemessen hätte. Adjustierungen werden typischerweise vorgenommen, wenn eine Station oder deren Instrumentierung verändert wurde.

Ein typisches Verfahren der Daten-Adjustierung ist es, alle zuvor gewonnen Messdaten um den gleichen Betrag zu verändern. Die Anwendung dieses Verfahrens Fälle mit graduellen Änderungen (wie etwa eine wachsende Großstadt die wahre Temperatur zunehmend beeinflusst), ist sehr falsch und führt dazu, dass die früheren Daten stärker adjustiert werden als man es hätte tun sollen. Messpunkte können häufig versetzt worden sein, und wenn man alle Daten zuvor jedes Mal adjustiert, können die frühesten Daten weit unter ihrem korrekten Wert liegen, womit der ganze Datensatz einen übertriebenen Erwärmungstrend zeigt.

Unter dem Strich lautet die Schlussfolgerung, dass die Daten in keiner Weise für globale Studien geeignet sind. Daten vor 1950 leiden unter geringer Abdeckung und sehr wahrscheinlichen falschen Adjustierungen der Stationsdaten. Daten nach jenem Jahr wiesen zwar eine bessere Abdeckung auf, haben aber immer noch das Problem der Daten-Adjustierung sowie die ganze Vielfalt der anderen, in dem Audit untersuchten Dinge.

Eine Berechnung der korrekten Temperaturen würde eine riesige Menge detaillierter Daten, Zeit und Mühe erfordern, was über diese Untersuchung hinausgehen würde und vermutlich unmöglich ist. Die primäre Schlussfolgerung des Audits lautet jedoch, dass der Datensatz eine übertriebene Erwärmung zeigt und dass globale Mittelwerte viel weniger sicher sind als behauptet.

Eine Implikation der Untersuchung ist, dass Klimamodelle frisiert wurden, damit deren Ergebnisse zu falschen Daten passen. Das verfälscht ihre Prophezeiungen zukünftiger Temperaturen und Schätzungen des menschlichen Einflusses auf die Temperatur.

Eine weitere Implikation ist, dass die Prämisse des Pariser Klima-Abkommens, nämlich die Mittelwerte der Jahre 1850 bis 1899 als „indikativ“ für die Temperaturen in vorindustrieller Zeit anzusehen, grundfalsch ist. Während jenes Zeitraumes war die globale Abdeckung mit Daten gering – nicht mehr als 30% über jenen Zeitraum – und viele Temperaturwerte vom Festland sind sehr wahrscheinlich exzessiv adjustiert worden und daher falsch.

Eine dritte Implikation ist, dass selbst falls die Behauptung des IPCC korrekt wäre, dass also die Menschheit für den größten Teil der Erwärmung seit 1950 verantwortlich ist, dann wäre die Größe einer solchen Erwärmung über die vergangenen 70 Jahre immer noch vernachlässigbar. Dann erhebt sich die Frage, ob die Mühen und Kosten, dieser zu begegnen, überhaupt in irgendeiner Weise Sinn machen.

Die Meinung des Autors ist ultimativ, dass der HadCRUT4-Datensatz und jedwede darauf beruhende Berichte oder Behauptungen in keiner Weise eine glaubwürdige Grundlage sind für Klimapolitik oder internationale Abkommen hinsichtlich der Gründe des Klimawandels.

Der ganze Report steht hier

Link: https://wattsupwiththat.com/2018/10/07/bombshell-audit-of-global-warming-data-finds-it-riddled-with-errors/

————————————

Auch der Karikaturist Josh, dessen Karikaturen verwendet werden dürfen, hat sich schon gedanken zum jüngsten IPCC-Bericht gemacht:

Josh: Der neue IPCC-Bericht ist ein Kunstwerk

Anthony Watts

Der Karikaturist Josh konnte schon vor der Veröffentlichung des IPCC SR 15-Berichtes darin Einblick nehmen und meint, dass ein technisches Wert hoch moderner Kunst ist:

Ich frage mich, was ist dieser Report wert?

Link: https://wattsupwiththat.com/2018/10/07/josh-the-new-ipcc-report-is-a-work-of-art/

Übersetzt von Chris Frey EIKE




IPCC im roten Drehzahlbereich von Ideologie und Realitätsverlust

Ein kleiner Überblick zum anthropogenen CO2

Schauen wir dazu einfach im Report der PBL Netherlands Environmental Assessment Agency nach, einer Organisation der holländischen Regierung (hier), die Trends in den globalweiten Emissionen von Klimagasen veröffentlicht. In diesem Report sagt Fig. 2.3 bereits alles nötige aus

Bild (Fig. 2.3): Emissionen von Klimagasen weltweit (hier)

In guter Näherung können wir die im Bild angegebenen Klimagase mit CO2 gleichsetzen, denn die entsprechenden Differenzen spielen für unsere Betrachtung keine Rolle. Die Tortengrafik in Fig. 2.3 weist mit zusammen knapp 40% die USA plus China als größte CO2 Emittenten aus. Russland und Japan zusammen mit 8% entsprechen etwa der EU mit ihren 9%. Deutschlands Beitrag ist im Bild nicht mehr aufgeführt, er liegt bei grob 2,5%. Bereits hier ist erkennbar, dass unser Beitrag global vernachlässigbar ist, weiter unten dazu mehr.

Über den industriellen Entwicklungshunger Chinas braucht man kaum Worte zu verlieren. Es baut neue Kohlekraftwerke fast im Wochentakt. China von seinem Weg des CO2 Ausstoßes abzuhalten wäre allenfalls theoretisch mit Waffengewalt möglich. Dabei denkt sicher jeder sofort an Josef Stalin, der sich über den Papst mit der rhetorischen Frage lustig machte „wieviel Division hat der Papst“ (also hier das IPCC)? Mit China und den USA als stärksten CO2 Emittenten ist es aber nur aktuell getan, Indien und Brasilien liegen schon in den Startlöchern, sie fangen an mit massiver Kohleverbrennung und später mit Kernkraftwerken nachzuziehen.

Müssen wir nun verzweifeln?

Nein, einer fiktiven Klimaschädigung wegen, verursacht durch menschgemachtes CO2, jedenfalls nicht. Was den Sachverstand des IPCC oder der GroKo angeht ist, ist das allerdings anders, hier sind starke Nerven gefragt, um tiefster Verzeiflung zu entkommen. Ein schöner Beitrag von Dirk Maxeiner (ACHGUT) zu diesem Thema hier. Trotz Propagandageballer aus allen Grün-Kanonenrohren dieser Welt ist ein Faktum nun einmal nicht aus der Welt zu schaffen, die Fachwissenschaft bürgt dafür – für jedermann erreichbar an Hand der öffentlich zugänglichen begutachteten Klima-Fachpublikationen: Es gibt bis heute keinen stringenten Nachweis, dass das anthropogene, also menschgemachtes(!) CO2 irgend einen Klimaeinfluss ausgeübt hat, der eindeutig auf diese Quelle zurückführbar ist.

Die so laut beklagte Temperatursteigerung gegen Ende des 20. Jahrhunderts (seit etwa 20 Jahren stagnierte die mittlere Globaltemperatur wieder bis heute) liegt weit im natürlichen Normalbereich, s. dazu Bild 1 in der EIKE-News hier. Die Steigerung des CO2 Gehalts in unserer Atmosphäre seit Beginn der Industrialisierung ist dagegen sehr wohl menschgemacht. Zum Glück für die Menschheit stieg der CO2-Gehalt der Luft wieder an, denn dadurch hat die Pflanzenmasse unseres Planeten zugenommen (hier) – einschließlich der globalen Nahrungsernten. Natürliche Klimaänderungen wie unsere bislang nur sehr kurze jüngste Warmperiode, haben stets Gewinner und Verlierer. Nur in Extremfällen, wie der kleinen Eiszeit vom Ende des 15. bis Mitte des 19. Jahrhunderts oder gar dem letzten Glazial vor 115.000 bis vor 12.000 Jahren, gab es so gut wie keine Gewinner.

Was passiert, wenn Deutschland weiter CO2 vermeidet?

Für die mittlere Globaltemperatur gar nichts! Die folgende Grobabschätzung für die globale Wirkung der CO2-Emissionen zeigt es, wobei hilfsweise die abstrusen Annahmen des IPCC vorausgesetzt werden:

Deutschlands Anteil an den weltweiten CO2 Emissionen beträgt etwa 2,5%. Um zu ermitteln, wie sich eine Verringerung dieses Beitrags um 50% auf die globale Mitteltemperatur bis zum Jahre 2050 auswirkt, gehen wir von vereinfachten Annahmen aus: Die derzeitige CO2 Konzentrationserhöhung der Luft beträgt 2 ppm/Jahr36, das sind in den 32 Jahren bis 2050 32 x 2 = 64 ppm mehr. Die deutsche 50% Einsparung ergibt 0,5 x 0,025 x 64 = 0,8 ppm weniger. Als ungünstigsten Wert der Klimasensitivität, also infolge CO2 Anstieg von heute 400 ppm auf 2 x 400 = 800 ppm, nennt das IPCC im Sachstandsbericht AR5 (2015) 4,5 °C. Die Temperaturverringerung durch 50% deutscher CO2 Einsparung beträgt somit höchstens 4,5 x 0,8/400 = 0,009 °C, also so gut wie nichts. Dieses „Nichts“ kostet Deutschland viele Milliarden Euro jedes Jahr. Diese Abschätzung wurde dem NRW-Landtag vom Autor anlässlich seiner Einladung als Gutachter zur Kenntnis gebracht und ist auf dem Landtagsserver abgreifbar. Es ist nicht bekannt, dass sie bei den politisch Veranwortlichen zum nachdenken geführt hat.

Leider passiert aber doch etwas, betreffend unseren Industriestandort. Eine Minderheit von sachunkundigen Grünverrückten (Strom kommt aus der Steckdose und wenn nicht, dann eben aus Wind und Sonne), fast die gesamte deutsche Medienlandschaft und leider auch die Justiz (hier) sind fleißig dabei Deutschland zum Zweck der CO2 Einsparung in die Tonne zu treten. Ein naiver Zeitgenosse fragt sich nicht zuletzt bei dem Urteil des OVG Münster zum Hambacher Forst, ob es inzwischen zwei Rechtsauffasungen gibt, eine für die Fällung von Bäumen für Windräder und eine für die Kohleversorgung. Wo protestieren eigentlich die grünen Aktivisten, wenn es den Waldtieren bei Windradinstallationen an den Kragen geht?

Nehmen wir jetzt einmal an, CO2 Vermeidung sei nötig. Wo soll die in Deutschland denn noch erfolgen? Windenergie trägt heute mickrige 3% zur deutschen Primärenergie bei, Photovoltaik 1%. Beide werden subventioniert und können nur den für ein stabiles Stromnetz unbrauchbaren Flatterstrom liefern. Die Versorgungssicherheit geht mit jedem neuen Windrad und jeder neuen Photozelle weiter in die Knie (hier, hier, hier, hier). Bleibt noch Energiemais mit 1%. Zu steigern ist dieses „Erneuerbare“ daher nicht mehr, denn insbesondere die Schäden durch Windturbinen übersteigen in Deutschland bereits jedes Maß (hier). Eine Studie des Bundesumweltamts zeigt auf S. 38 die Abbildung 12, aus der hervorgeht, dass ein weiterer Ausbau der Windenergienutzung zumindest an Land kaum noch möglich ist.

CO2 – Emissionen sind proportional zum Energieverbrauch. Hier sind auf allen Sektoren in Deutschland die Margen bereits ausgereizt. Selbst „Nullenergie-Häuser“ stellen sich inzwischen als Energieverschwender anstatt Energieeinsparer heraus (hier) – vorausgesetzt man erstellt eine realistische Gesamtbilanz.

Wovon wir als rohstoffarmes Land noch leben sollen, wenn die Kernkraftwerksindustrie, die Kohle, die Elektrizitätswirtschaft, die Autoindustrie, die chemische Industrie (Pflanzenschutz) und alle energieintensiven Industrien abgewickelt sind, kommt den für diesen Vernichtungsfeldzug Verantwortlichen anscheinend nicht in den Sinn. Haben die vielen Profiteure dieses Feldzugs schon vorgesorgt? Sie sollten es allmählich tun, denn den Ast auf dem sie sitzen, sägen sie gerade selber ab.




Tägliche Averages? Vorsicht, nicht so schnell…

Im Kommentarbereich meines jüngsten Beitrages zu den GAST (Global Average Surface Temperature)-Anomalien (und warum es ein Verfahren ist, mit dem die Klimawissenschaft sich selbst austrickst) kam (erneut) zur Sprache, dass das, was die Klimawissenschaft als die Tägliche Average Temperatur von irgendeiner Wetterstation angibt, nicht das ist, was wir denken, nämlich das Average der Temperaturen über den Tag (indem alle gemessenen Temperaturen addiert werden und die Summe durch die Anzahl der Werte dividiert wird). Stattdessen werden einfach die tägliche Maximum- bzw. Minimum-Temperatur addiert und durch zwei dividiert. Das kann man übersetzt in die Sprache der Mathematik so schreiben: (Tmax + Tmin)/2.

Jeder, der hinsichtlich der verschiedenen Formen von Averages versiert ist, wird erkennen, dass Letzteres in Wirklichkeit der Median von Tmax und Tmin ist – also die Mitte zwischen beiden Werten. Dies ist offensichtlich auch gleich dem Mean der beiden Werte – aber da wir nur ein tägliches Maximum bzw. Minimum für eine Aufzeichnung heranziehen, in welcher heutzutage viele Messungen einen Tagessatz bilden, finden wir einen Median, wenn wir alle Messungen nach ihrer Magnitude angleichen und den Mittelpunkt zwischen dem höchsten und dem tiefsten Wert finden (allerdings machen wir das unter Ignoranz aller anderen Messungen zusammen, und wir kommen auf den Median eines Datensatzes aus zwei Werten, der nur aus Tmax und Tmin besteht).

Das ist sicher kein Geheimnis und das Ergebnis der historischen Tatsache, dass Temperaturaufzeichnungen in irgendeiner entfernten Vergangenheit vor Einführung automatisierter Wetterstationen auf diese Weise erstellt wurden – beispielsweise mit einem Max-Min-Thermometer wie diesem hier:

Jeden Tag zu einer festgesetzten Zeit würde ein Beobachter zum Stevenson screen* gehen, ihn öffnen und darin befindliche Thermometer ablesen. Man würde die durch die Marker angezeigten Maximum- und Minimum-Temperaturen ablesen und dann den Reset-Schalter drücken (in der Mitte), um die Messung neu laufen zu lassen.

[*Einschub des Übersetzers: Mit ,Stevenson Screen‘ bezeichnen die Amerikaner eine simple Wetterhütte wie die unten Abgebildete, welche im DWD bis vor einigen Jahren in Gebrauch waren. Darin befinden sich links ein Thermo-/Hygrograph, rechts quer liegend ein Maximum- und ein Minimum-Thermometer, darunter noch ein weiteres Minimum-Thermometer, das abends vor der Hütte über dem Boden abgelegt wird, um das nächtliche Minimum in Bodennähe zu ermitteln. Dahinter befinden sich senkrecht zwei Thermometer, links zur Messung der Feuchttemperatur {bitte googeln, falls nicht bekannt}, rechts zur Messung der aktuellen Temperatur.

Abbildung: Schau-Wetterhütte, wie sie bis vor einigen Jahren im DWD gebräuchlich war. Bild: © der Übersetzer.

Es entzieht sich der Kenntnis des Übersetzers, ob der im Original vorgestellte, verlinkte ,Stevenson Screen‘, welcher ja nur mit Thermometern der Art aus Abbildung 1 bestückt ist, exemplarisch für alle Stationen in den USA oder ein hier vorgestellter Sonderfall ist.

Ende Einschub]

Mit lediglich diesen beiden aufgezeichneten Messwerten lässt sich nur die tägliche Average-Temperatur berechnen, die dem Median der beiden am nächsten liegt. Um heutige Temperaturwerte mit solchen aus der Vergangenheit vergleichen zu können, war es erforderlich, das gleiche Verfahren anzuwenden, um das tägliche Average von heutigen Temperaturen zu erhalten, obwohl von automatisierten Messpunkten alle sechs Minuten eine neue Messung vorliegt.

Nick Stokes schrieb einen Beitrag über die Verwendung von Min-Max-Thermometern nebst deren Problemen in Relation zu Adjustierungen bzgl. der Beobachtungszeit. In jenem Beitrag schreibt er:

Ab und zu erscheint ein Beitrag wie dieser, in welchem jemand entdeckt, dass die Messung der täglichen Temperatur mittels (Tmax + Tmin)/2 nicht genau dem entspricht, was man mit einer Integration der Temperatur über die Zeit erhält. Na und? Beides sind einfach Messungen, und man kann damit Trends abschätzen.

Und da hat er absolut recht – man kann jede Zeitreihe von irgendwas heranziehen, alle Arten von Averages finden – Means, Mediane, Modes – und deren Trends auffinden über verschiedene Zeiträume.

[Einschub des Übersetzers: Am Meteorologischen Institut der Freien Universität Berlin wurde seit seiner Gründung durch Prof. Richard Scherhag im Jahre 1953 ein Klimamittel errechnet, aber nicht nach der hier beschriebenen, vorsintflutlich anmutenden Methode. Es wurden jeweils täglich die Temperaturwerte von 7 Uhr, 14 Uhr und 2 x 21 Uhr (MEZ; MESZ 1 Stunde später) gemessen (das sind die sog. ,Mannheimer Stunden‘) und durch 4 dividiert. Vermutlich wurde dieses Verfahren auch beim DWD so durchgeführt. Wie es in anderen europäischen Ländern gehandhabt wird, ist nicht bekannt, zumindest in einigen Ländern ist es aber wohl das hier von Kip Hansen beschriebene Verfahren.

Seit den achtziger Jahren werden am Institut auch stündliche Temperaturwerte ermittelt und durch 24 dividiert. Seit Jahr und Tag werden die so gewonnen Mittelwerte mit dem der Mannheimer Stunden verglichen. Es ergeben sich Differenzen bis 1°C. Da wir es aber hier mit Zehntel oder sogar Hundertstel Grad (!) zu tun haben, ist das natürlich erheblich.

Weiteres hierzu kann man über die Website des Instituts erfahren.

Ende Einschub]

In diesem Falle müssen wir die Frage stellen: Was ermitteln sie eigentlich? Ich musste immer wieder diesen Beitrag heranziehen, wenn ich etwas über aktuelle wissenschaftliche Forschung schrieb, welche irgendwie einen bedeutenden ,roten Faden‘ wahrer Wissenschaft verloren zu haben scheint – dass wir extreme Vorsicht walten lassen müssen bei der Definition dessen, was wir erforschen – welche Messungen von welcher Eigenschaft welcher physikalischen Größe uns das zeigen wird, was wir wissen möchten.

Stoke schreibt, dass jedwede Daten von Messungen irgendwelcher Temperatur-Averages offenbar genauso gut sind wie jede andere – dass der Median von (Tmax+Tmin)/2 genauso brauchbar für die Klimawissenschaft als wahres Average ist wie häufigere Temperaturmessungen wie etwa heutige Messungen alle sechs Minuten.

Damit haben wir mindestens drei Frage aufgeworfen:

1. Was versuchen wir mit Temperaturaufzeichnungen zu messen? Wenn wir die Berechnungen monatlicher und jährlicher Means nebst deren Trends sowie den Trends von deren Anomalien berechnen – was werden wir daraus erkennen? (Mit Anomalien sind hier immer Anomalien von irgendwelchen klimatischen Means gemeint).

2. Was wird mit (Tmax+Tmin)/2 wirklich gemessen? Ist es quantitativ unterschiedlich zur Mittelung [averaging] von alle sechs Minuten (oder stündlich) gemessenen Temperaturen? Sind die beiden qualitativ unterschiedlich?

3. Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren alles, um Frage Nr. 1 beantworten zu können?

Ich werde diese Fragen im Folgenden beantworten. Jeder kann aber in Kommentaren seine eigenen Antworten kundtun.

Was versuchen wir zu messen?

Die Antworten auf Frage 1 sind davon abhängig, wer man ist und in welchem Bereich der Wissenschaft man arbeitet.

Meteorologen messen die Temperatur, weil es in ihrem Bereich ein Schlüsselparameter ist. Ihre Aufgabe ist es, Temperaturen der Vergangenheit zu kennen und diese dazu heranzuziehen, um zukünftige Temperaturen im Kurzfrist-Zeitraum vorherzusagen – Höchst- und Tiefstwerte für morgen, Wochenend-Wetter und Jahreszeiten-Prognosen für die Landwirtschaft. Vorhersagen von Extremtemperaturen sind ein wichtiger Bestandteil ihrer Aufgabe – und „vor Wetterereignissen zu warnen, die zu einer Gefahr für die öffentliche Sicherheit und Ordnung führen können“*

[*Das ist keine Übersetzung, sondern ein Original-Auszug aus dem deutschen Wetterdienst-Gesetz. Anm. d. Übers.]

Klimatologen befassen sich mit langzeitlichen Averages sich ständig verändernder Wetterbedingungen für Gebiete, Kontinente und den Planeten als Ganzes. Mit diesen langfristigen Averages wollen sie die verschiedenen Gebiete der Welt in die 21 Zonen der Klima-Klassifikation nach Köppen einteilen und nach Änderungen in diesen Regionen Ausschau halten. [Statt des Links lieber nach „Köppen Klimazonen“ googeln. Anm. d. Übers.] In Wikipdedia findet sich eine Erklärung, warum dieser Studienbereich schwierig ist:

Klimaforschung ist schwierig wegen der Größenordnung der Gebiete, der langen Zeiträume und der komplexen Prozesse, welche das Klima steuern. Klima wird gesteuert durch physikalische Gesetze, die man als Differentialgleichungen darstellen kann. Diese Gleichungen sind gekoppelt und nichtlinear, so dass angenäherte Lösungen nur erhalten werden können mittels numerischer Verfahren, um globale Klimamodelle zu konstruieren. Klima wird manchmal modelliert als ein stochastischer (Zufalls-)Prozess, aber es ist allgemein als eine Approximation von Prozessen akzeptiert, welche anderenfalls zu kompliziert sind, um analysiert werden zu können. (Hervorhebung von mir {dem Autor}).

Die Temperaturen der Ozeane und die verschiedenen Schichten der Atmosphäre sowie die Unterschiede zwischen Regionen und atmosphärischen Schichten sind zusammen mit einer langen Liste anderer Faktoren Treiber des Wetters, und die langfristigen Unterschiede der Temperatur folglich von Interesse für die Klimatologie. Der momentane Gleichgewichtszustand des Planeten hinsichtlich Ein- und Ausstrahlung ist gegenwärtig einer der Brennpunkte in der Klimatologie, und Temperaturen sind ein Teil davon.

Wissenschaftler der anthropogenen globalen Erwärmung (IPCC-Wissenschaftler) befassen sich mit der Beweisfindung, dass anthropogenes CO2 dazu führt, dass das Klimasystem der Erde zunehmend einfallende Solarstrahlung zurückhält, und berechnen globale Temperaturen allein aufgrund dieser Objektive. Folglich konzentrieren sich die AGW-Wissenschaftler auf regionale und globale Temperaturtrends sowie die Trends der Temperatur-Anomalien und anderer klimatischer Faktoren, die ihre Position stützen könnten.

Welche Aussagen erhoffen wir uns von Berechnungen monatlicher und jährlicher Means nebst deren Trends?

Meteorologen sind an Temperaturänderungen bzgl. ihrer Prognosen interessiert und verwenden „Means“ von Temperaturen der Vergangenheit, um eine zu erwartende Bandbreite der Temperatur-Variabilität zu erhalten und vorherzusagen, wenn es Temperatursprünge nach außerhalb dieser Bandbreite gibt. Temperaturunterschiede zwischen Örtlichkeiten und Regionen treiben das Wetter, was diese Aufzeichnungen für ihre Arbeit bedeutsam macht.

Klimatologen wollen wissen, wie sich das längerfristige Bild ändert – Erwärmt es sich in dieser Region wirklich, kühlt sie ab, gibt es immer mehr/weniger Regen? Und das alles über Zeiträume von Jahrzehnten oder auch 30 Jahren. Dafür brauchen sie Trends. (Anmerkung: Nicht einfach dümmliche, selbst generierte ,Trendlinien‘ in Graphiken, die von ihren Beginn- und Endpunkten abhängen – sie wollen reale Änderungen der Bedingungen mit der Zeit erkunden).

AGW-Wissenschaftler müssen in der Lage sein zu zeigen, dass sich die Erde erwärmt und ziehen Temperaturtrends heran – regional und global, als Absolutwerte und Anomalien – in dem Bemühen, die AGW-Hypothese zu beweisen, der zufolge das Klimasystem der Erde mehr Energie von der Sonne zurückhält infolge zunehmender CO2-Konzentrationen.

Was wird mit (Tmax+Tmin)/2 wirklich gemessen?

(Tmax+Tmin)/2, die tägliche Tmittel [Tavg] der Meteorologen, ist das Median der täglichen Höchst- und Tiefsttemperatur (man klicke auf den Link, falls man nicht so genau weiß, warum das der Median und nicht das Mean ist). Die monatliche Tavg ist tatsächlich das Median des Monatlichen Means täglicher Höchsttemperaturen und des monatlichen Means der Täglichen Tiefsttemperatur. Die Monatliche Tavg ist der grundlegende Eingangswert für alle daraus abgeleiteten Berechnungen regional, staatenweit, national, kontinental und global der Average-Temperatur (in 2 m Höhe auf dem Festland). Mit dieser Berechnung will man den Median der Means von Tmax und Tmin finden für den Monat an der Station, indem man all die täglichen Tmax und Tmins jeweils addiert und ihr Mean (arithmetisches Average) berechnet, um dann den Median jener zwei Werte zu finden. (Dies so zu definieren war nicht einfach – ich musste zu den Original-GHCN-Aufzeichnungen gehen und mich per E-Mail an den Customer Support von NCEI wenden, um Klarheit zu bekommen).

Wenn wir jetzt also wissen, wie die Zahl zustande gekommen ist, die wir die monatliche Tavg nennen, können wir jetzt einmal betrachten, was damit eigentlich gemessen wird.

Ist es eine Maßzahl für das Average der Temperatur für den Monat? Eindeutig nicht. Dieses würde man berechnen mittels Addition von Tavg für jeden Tag und Division der Summe durch die Anzahl der Tage des jeweiligen Monats. Dieses Verfahren könnte einen Wert ergeben, der überraschend nahe der aufgezeichneten monatlichen Tavg liegt – unglücklicherweise haben wir aber schon gesagt, dass die täglichen Tavgs nicht die Average-Temperaturen für ihre jeweiligen Tage sind, sondern die Mediane der täglichen Höchst- und Tiefsttemperatur.

Das in diesem Beitrag behandelte Problem illustriert das Bild ganz oben. Hier folgt es vergrößert:

Diese Abbildung stammt aus einem Beitrag, in welchem Means und Medians definiert werden. Man erkennt, dass falls die violetten Einzelschritte für die Temperatur über einen Tag stehen, wäre der Median für stark unterschiedliche Temperaturprofile identisch, aber das wahre Average, das Mean wäre sehr unterschiedlich. (Man beachte: das rechte Ende der Graphik ist abgeschnitten, aber beide Einzelwerte enden am gleichen Punkt rechts – das Äquivalent einer Höchsttemperatur für den Tag). Falls das Profil dicht an einer „Normalverteilung“ liegt, liegen Median und Mean dicht beieinander – falls nicht, sind beide ziemlich unterschiedlich.

Ist es quantitativ unterschiedlich zum Averaging der Temperatur des Tages alle sechs Minuten (oder stündlich)? Sind die beiden qualitativ unterschiedlich?

Um eine Antwort zu finden, müssen wir zu den täglichen Tavgs zurückkehren. Wodurch ändert sich die Tägliche Tavg? Jedwede Änderung der täglichen Höchst- oder Tiefsttemperatur, falls die tägliche Tavg 72 beträgt, können wir dann die Höchst- und Tiefsttemperatur daraus ablesen? Nein, können wir nicht. Die Tavg des Tages sagt uns wenig über diese beiden Tagesextrema. Auch erfahren wir durch die Tavg nicht viel darüber, wie sich die die Temperatur im Tagesverlauf entwickelt und geändert hat.

Tmax 73, Tmin 71 = Tavg 72
Tmax 93, Tmin 51 = Tavg 72
Tmax 103, Tmin 41= Tavg 72*

[*Das sind natürlich Grad Fahrenheit. Da es um das Prinzip und nicht um die Werte als solche geht, spare ich mir die Umwandlung. Anm. D.Übers.]

Der erste Tag wäre ein milder Tag und eine sehr warme Nacht, der zweite ein heißer Tag und eine Nacht mit normaler Temperatur. Dabei könnte es ein wolkiger warmer Tag gewesen sein, wobei eine Stunde purer Sonnenschein die Temperatur auf einen Momentanwert von 93 hätte steigen lassen oder auch ein durchweg sonniger Tag mit Erwärmung auf 93 Grad bis 11 Uhr und Verharren der Temperatur über 90 bis Sonnenuntergang mit einem nur sehr kurzen Zeitraum am frühen Morgen, in welchem es 51 Grad kühl geworden ist.

Unser drittes Beispiel, wie es für die Hochwüsten im Südwesten der USA typisch ist, zeigt einen sehr heißen Tag mit einer nachfolgenden kalten Nacht. Ich selbst habe Tage mit Temperaturwerten über 90°F [34°C] erlebt mit Frost während der folgenden Nacht. (Tmax+Tmin)/2 ergibt nur den Median zwischen zwei Temperatur-Extrema, von denen jedes Einzelne mehrere Stunden oder auch nur ein paar Minuten erreicht haben kann.

Die tägliche Tavg, der Median von Tmax und Tmin, sagt uns nichts über den „Wärmegehalt“ oder das Temperaturprofil des Tages. Wenn das so ist, weist die monatliche Tavg die gleiche Schwäche auf – ist sie doch der Median der Means der Tmaxs und Tmins.

Vielleicht hilft eine Graphik bei der Veranschaulichung des Problems:

Diese Graphik zeigt die Differenz zwischen der täglichen Tavg (mittels des (Tmax+Tmin)/2-Verfahrens) einerseits sowie dem wahren Mean der täglichen Temperatur Tmean andererseits. Man erkennt Tage mit einer Differenz von drei oder mehr Grad mit einem Augenschein-Average von einem Grad oder so, mit ziemlich vielen Tagen mit einer Differenz von ein oder zwei Grad. Man kann eine ähnliche Graphik für die monatliche TAVG und den wahren monatlichen Means plotten, entweder von tatsächlichen täglichen Means oder durch averaging aller Temperaturaufzeichnungen für den jeweiligen Monat.

Die gegenwärtig gebräuchlichen Tavg und TAVG (täglich und monatlich) sind nicht das Gleiche wie tatsächliche Means der Temperaturen über den Tag oder den Monat. Sie sind beide quantitativ und qualitativ unterschiedlich – und sagen uns unterschiedliche Dinge.

Also: JA, die Daten sind qualitativ und quantitativ unterschiedlich.

Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren die Zwecke jedweder Antwort auf Frage 1?

Betrachten wir dazu mal wieder die Forschungsbereiche:

Meteorologen messen Temperaturen, weil es einer der zentralen Bereiche ihrer Arbeit ist. Die Wetterleute sind zufrieden mit Temperaturmessungen nahe des nächsten ganzen Grads. Ein Grad mehr oder weniger war nicht groß von Belang (außer bei Temperaturwerten um den Gefrierpunkt). Average Wetter kann auch eine Unsicherheit von ein oder zwei Grad aushalten. Also denke ich, dass das Verfahren (Tmax+Tmin)/2 für die Wetterleute ausreichend ist – auch hinsichtlich des Wetters und der Wettervorhersage. Bzgl. Wetter weiß der Meteorologe, dass die Temperatur auf natürliche Weise um ein oder zwei Grad variiert.

Klimatologen befassen sich mit den langzeitlichen, sich immer ändernden Wetterbedingungen in Regionen, auf Kontinenten und den Planeten als Ganzes. Klimatologen wissen, dass Wetterbeobachtungen der Vergangenheit nicht gerade präzise waren – sie akzeptieren, dass (Tmax+Tmin)/2 keine Maßzahl der Energie im Klimasystem ist, sondern sie damit nur einen Hinweis von Temperaturen an einer Station, in einem Gebiet oder auf kontinentaler Basis bekommen, ausreichend um sich ändernde Klimate zu beurteilen – ein Grad mehr oder weniger der average Sommer- bzw. Wintertemperatur für eine Region ist möglicherweise keine klimatologisch bedeutende Änderung – es ist einfach jährliches oder vieljähriges Wetter. Die meisten Klimatologen wissen, dass nur Temperaturmessungen aus jüngster Zeit auf ein oder zwei Grad präzise sind.

AGW-Wissenschaftler (IPCC-Wissenschaftler) befassen sich damit zu beweisen, dass das Klimasystem der Erde durch menschliche CO2-Emissionen Energie von der Sonne zurückhält. Und hier kommen die Differenzen in den quantitativen und qualitativen Werten ins Spiel zwischen (Tmax+Tmin)/2 bzw. einer wahren täglichen/monatlichen Mean-Temperatur.

Es gibt Leute, die (korrekt) argumentieren, dass Temperatur-Averages (mit Sicherheit die GAST genannte Größe) keine genauen Indikatoren der Energie-Rückhaltung im Klimasystem sind. Aber bevor wir uns dieser Frage annehmen können, müssen wir korrekte quantitative und qualitative Messwerte der Temperatur haben, welche die sich ändernde Wärmeenergie an Wetterstationen reflektiert. Aus (Tmax+Tmin)/2 geht nicht hervor, ob wir einen heißen Tag und eine kühle Nacht hatten oder einen kühlen Tag und eine relativ warme Nacht. Temperatur ist eine intensive Eigenschaft (in diesem Fall von Luft und Wasser) und nicht wirklich geeignet für Addition, Subtraktion und Averaging im normalen Sinne – die Temperatur einer Luft-Stichprobe (wie etwa in einer automatischen Wetterstation ASOS) – steht in Beziehung zu, ist aber nicht das Gleiche wie die Energie (E) in der Luft an jener Stelle und steht in Relation zu, ist aber nicht das Gleiche wie die Energie im lokalen Klimasystem. Verwendet man (Tmax+Tmin)/2 bzw. TMAX und TMIN, um eine monatliche TAVG zu erhalten, reflektiert dies nicht einmal genau, wie die Temperaturen waren und kann und wird uns daher nicht (akkurat und präzise) informieren über die Energie im lokal gemessenen Klimasystem. Daher kann sie uns auch nicht, wenn man sie über Regionen und Kontinente kombiniert, (akkurat und präzise) über die Energie im regionalen, kontinentalen oder globalen Klimasystem informieren – nicht quantitativ in Absolutwerten und nicht in Gestalt von Änderungen, Trends oder Anomalie-Trends.

In der AGW-Wissenschaft geht es um das Zurückhalten von Energie im Klimasystem, und die gegenwärtig verwendeten mathematischen Verfahren – bis hinab zum Niveau des täglichen Averages – sind trotz der Tatsache, dass dies alles ist, was wir in der Historie klimahistorischer Aufzeichnungen haben, nicht geeignet, um eine sich eventuell ändernde Energie-Zurückhaltung zu berechnen bis zu irgendeinem Grad quantitativer oder qualitativer Akkuratesse oder Präzision.

Für die Wetterprognostiker mag es ausreichen, diese trügerische Größe als „ausreichend für die Wettervorhersage“ anzusehen. Die Vorhersage von Hurrikanen kann sehr gut mit Temperaturwerten innerhalb einer Genauigkeit von ein oder zwei Grad vorhergesagt werden – solange alles miteinander vergleichbar ist.

Selbst Klimawissenschaftler – jene, die nicht an den Klima-Kriegen interessiert sind – können gut mit Temperaturwerten plus/minus 1 Grad oder so leben – gibt es doch eine Fülle anderer Faktoren, von denen viele wichtiger sind als eine „Average Temperatur“ und die in Kombination das Klima jedweder Region ausmachen.

Nur AGW-Aktivisten bestehen darauf, dass die minimalen Änderungen, die sich aus langzeitlichen Klima-Aufzeichnungen der falschen Parameter ergeben, wahrlich signifikant sind für das Weltklima.

Unter dem Strich:

Die gegenwärtig angewandten Verfahren zur Berechnung sowohl der globalen Temperatur als auch globaler Temperatur-Anomalien stützen sich aus historischen Gründen auf einen Parameter, der in vielfacher Weise ungeeignet ist, um mit Präzision zu bestimmen, ob sich das Klimasystem der Erde infolge Zurückhalten von Sonnenenergie erwärmt oder nicht. Er ist ungeeignet zur Bestimmung der Größenordnung einer solchen eventuellen Änderung und womöglich nicht einmal dazu geeignet, überhaupt das Signal für eine solche Änderung auszumachen. Das gegenwärtige Verfahren misst nicht in angemessener Weise eine physikalische Eigenschaft, welche eine solche Berechnung gestatten würde.

Schlussbemerkungen des Autors:

Das diesem Beitrag zugrunde liegende Thema ist viel einfacher als es aussieht. Die Messungen zur Erstellung einer GAST (Anomalie) und GAST (absolut) – besonders (Tmax+Tmin)/2, egal ob täglich oder monatlich – sind nicht geeignet für eine Berechnung jener globalen Parameter in der Art, wie sie uns von den AGW-Aktivisten-Wissenschaftlern präsentiert werden. Sie werden oftmals herangezogen zu zeigen, dass das Klimasystem mehr Energie zurückhält und sich folglich erwärmt … aber die kleinen Änderungen dieser unpassenden Größe über klimatologisch signifikante Zeiträume können uns darüber nichts sagen, messen sie doch in Wirklichkeit nicht die average Temperatur, nicht einmal die an einer einzelnen Wetterstation. Die zusätzliche Unsicherheit dieses Faktors lässt die Gesamt-Unsicherheit der GAST nebst deren Anomalien bis zu einem Punkt unsicher werden, an dem sie über die gesamte Zunahme seit Mitte des 20. Jahrhunderts hinausgeht. Diese Unsicherheit wird nicht eliminiert durch wiederholtes Glätten und Averaging entweder von absolute Werten oder deren Anomalien.

Ich empfehle der Leserschaft dringend, die immer präsente Hypothese zurückzuweisen, die da lautet „falls wir immer weiter fortfahren, Averages zu mitteln [averaging averages] wird die Variation früher oder später so gering werden, dass sie keine Rolle mehr spielt – egal ob es Fehler, Unsicherheiten oder einfach schlechte Daten sind“. Das führt zu wissenschaftlicher Verrücktheit.

Die Argumentation wäre anders, falls wir tatsächlich genaue und präzise Temperatur-Averages von Wetterstationen hätten. Viele würden immer noch nicht dem Argument zustimmen, dass die Temperaturaufzeichnung allein eine Änderung der Zurückhaltung von Sonnenenergie anzeigen kann. Die in das System eintretende Energie wird nicht wie von Zauberhand automatisch in der Luft 2 Meter über Grund oder auch an der Oberfläche der Ozeane in fühlbare Wärme umgewandelt. Änderungen der fühlbaren Wärme, gemessen in 2 m Höhe und an der Oberfläche der Ozeane, reagieren nicht notwendigerweise sofort auf eine Zu- oder Abnahme zurückgehaltener Energie im Klimasystem der Erde.

Es wird Einwände gegen die Schlussfolgerungen dieses Beitrags geben – aber die Fakten sind so, wie sie sind. Einige werden diese Fakten unterschiedlich interpretieren, verschiedenen Werten verschieden starke Wichtigkeiten zuordnen und unterschiedliche Schlussfolgerungen ziehen. Aber genau das ist Wissenschaft.

Link: https://wattsupwiththat.com/2018/10/02/daily-averages-not-so-fast/




Wissenschaft­liche Korruption mit der Wurzel ausreißen

Jüngste Entwicklungen zeigen, dass Reformen in der Luft liegen, aber es bleibt noch viel zu tun, besonders bzgl. Klima.

Unzählige Dollar-Milliarden an Steuergeldern in Gestalt an Zuwendungen für Unternehmen (und folglich die Verbraucher) haben Forschung gefördert und Löhne aufgebläht, wobei Universitäten rund 40% abschöpfen für „Übersicht und Aufwand“. Anreize und Versuchungen allerorten.

Viel zu viele Forscher haben sich derartigen Praktiken viel zu lange verschrieben. Viel zu viele ihrer Kollegen führen schlampige, begünstigende oder verlogene Begutachtungen durch. Viel zu viele Universitäten und andere Institutionen sind diesem Weg gefolgt. Viel zu oft ernten jene, die diesen Weg gehen, Ruhm und Glück. Viel zu viele verdächtige Ergebnisse wurden herangezogen um Unternehmen anzugreifen oder gerichtlich zu belangen oder um kostspielige politische Maßnahmen auf den Weg zu bringen.

Ein gutes Beispiel hierfür ist Glyphosat.

Massenschäden-Klage-Industrie gewinnt den Jackpot

[Original: Mass-tort lawsuit industry hits the jackpot]

Es half der Mass-tort lawsuit industry, den Jackpot zu gewinnen, als eine Jury in San Francisco einem Platzwart im Ruhestand 289 Millionen Dollar Ausgleichs- und Schmerzensgeld zugesprochen hatte – wegen seiner Behauptung, dass seine Erkrankung des Lymph-Systems entstanden ist, weil er Glyphosat ausgesetzt war. Viele ähnliche Gerichtsverfahren stecken jetzt in der Pipeline.

Die potentiellen Auswirkungen auf die chemische Industrie und die konventionelle Landwirtschaft weltweit sind noch gar nicht abzusehen.

Aber noch viel schlimmere Auswirkungen zeitigen die Forschungen, um die These des „gefährlichen menschengemachten Klimawandels“ voranzutreiben – dienst diese doch als Grundlage für Forderungen an uns, fossilen Treibstoffen zu entsagen, welche 80% des Energiebedarfs in den USA und weltweit decken – und sie zu ersetzen durch teure, unzuverlässige, pseudo-erneuerbare Alternativen.

Die infame „Hockeyschläger“-Temperaturgraphik

Es ist eine positive Entwicklung, die vielleicht eine Aufarbeitung im Cornell-Stil [?] ankündigt, dass nach sieben langen Jahren des Mauerns und der begünstigenden Gerichtsurteile die University of Arizona schließlich entschieden hat, der Free Market Environmental Law Clinic die E-Mails und anderen, vom Steuerzahler finanzierten Aufzeichnungen zu übergeben, die man schon im Jahre 2011 angefordert hatte. Die Dokumente beziehen sich auf die infame Hockeyschläger-Temperaturgraphik, in welcher versucht wurde, die Mittelalterliche Warmzeit und die Kleine Eiszeit aus der Historie verschwinden zu lassen, in welcher Machenschaften zur Beeinflussung eines IPCC-Berichtes sowie Bemühungen aufgedeckt wurden, nicht-alarmistische Studien von wissenschaftlichen Journalen fernzuhalten, und andere raffinierte Tricks.

Während juristische Belange des öffentlichen Zugangs zu wissenschaftlichen Ergebnissen sehr ähnlich anderen Fällen nach dem FOIA im Jahre 2010 folgten, nahm das Gericht in der Causa Virginia/Penn State University eine ganz andere Wendung. Jener Gerichtshof fällte das absurde Urteil, dass der Alarmisten-Forscher Dr. Michael Mann seine Daten, Verfahren und E-Mails als sein persönliches, intellektuelles Eigentum behandeln darf – unerreichbar für jeden außerhalb des inneren Zirkels um Mann – obwohl seine Arbeiten ausschließlich vom Steuerzahler finanziert waren und obwohl diese Daten als Grundlage herangezogen wurden, das „endangerment finding” und den Krieg gegen die Kohle zu rechtfertigen, was in der Folge den Lebensstandard aller Amerikaner beeinträchtigte.

Engagement in fragwürdige, geheimniskrämerische, unverantwortliche Wissenschaft

Wissenschaftliche Debatten sollten ausschließlich in akademischen, wissenschaftlichen und öffentlichen politischen Arenen geführt werden und nicht vor Gericht, wie etwa 800 Wissenschaftler bei der Verteidigung der Mann’schen Wissenschaft vorbrachten. Allerdings ist das nicht möglich, wenn es die in Frage kommenden Wissenschaftler ablehnen, sich derartigen Debatten zu stellen; wenn sie ihre Daten, Computerprogramme, Algorithmen und Verfahren zurückhalten; wenn sie sich in fragwürdiger, geheimniskrämerischer, unverantwortlicher Wissenschaft engagieren.

Wir, die wir diese Forschung bezahlen und zum Opfer schlampiger, ungeeigneter oder betrügerischer Arbeit werden, haben das klare und unabdingbare Recht, darauf zu bestehen, dass Wissenschaft ehrlich und korrekt durchgeführt wird. Und dass die Daten, Verfahren und Arbeitsergebnisse der Wissenschaftler öffentlich sind und für Analysen und Kritik zur Verfügung stehen. Und dass sich die Forscher robusten Debatten stellen mit anderen Wissenschaftlern und Kritikern. Es gleicht dem fundamentalen Recht, Zeugen in einem Zivil- oder Strafprozess ins Kreuzverhör zu nehmen, Inkonsistenzen aufzudecken, Glaubwürdigkeit zu erlangen und die Wahrheit zu bestimmen.

Wissenschaftler, welche diese grundlegenden Prinzipien verletzen, sollten nicht weiter finanziell gefördert werden.

Stattdessen haben wir jetzt eine erneuerbare Energie/Klimakrise-Industrie im Wert von fast 2 Billionen Dollar pro Jahr. Diese achtet peinlich, eifernd und eifersüchtig auf ihr Territorium und attackiert jeden, der es wagt, heikle Fragen zu stellen – wie die Folgenden:

Welche wirklichen, nachvollziehbaren Beweise in der realen Welt gibt es, um überzeugend zu demonstrieren, dass…:

●… man jetzt relativ geringe menschliche Einflüsse von den vielen mächtigen natürlichen Kräften unterscheiden kann, welche immer Klimawandel getrieben haben?

●… Treibhausgase jetzt das Klima kontrollieren und dass die Sonne und andere Kräfte nur eine geringe Rolle spielen?

●… die Erde derzeit bedeutende und beispiellose Änderungen bzgl. Temperatur, Eiskappen, Meeresspiegel, Hurrikane, Tornados und Dürren erlebt?

●… diese Änderungen katastrophal sein werden und den Verbrauch fossiler Treibstoffe seitens der Menschheit als Ursache haben?

●… ihre Computermodelle die Bedingungen der realen Welt genau prognostiziert haben, die wir heute messen?

●… Wind, Solar und Biotreibstoffe fossile Treibstoffe ersetzen können, um moderne Industrie-Ökonomien zuverlässig mit Energie zu versorgen und den Lebensstandard erhalten, dass Güter ohne fossile Treibstoffe hergestellt, transportiert und installiert werden können, dass sie „nachhaltig“ sind bis in absehbare Zukunft und dass sie keine schädlichen Auswirkungen auf Wildnis, Habitate, Luft und Wasser haben?

Alarmistische Klimakrisen-Wissenschaftler fordern und/oder helfen zu rechtfertigen radikale, transformative, destabilisierende und destruktive Änderungen unserer Energie-Infrastruktur, unserer Ökonomie, unseres Lebensstandards – und sie hindern die Ärmsten der Erde daran, die Energie zur Verfügung zu haben, die sie zur Verbesserung ihres Gesundheitszustandes und Lebensstandards unabdingbar brauchen. Darum obliegt ihnen eine sehr hohe Beweislast, dass sie recht haben. Sie müssen gezwungen werden, solide Beweise vorzulegen und sich robusten Debatten stellen bis hin zu Kreuzverhören.

Man darf ihnen nicht länger erlauben, materielle Beweise, E-Mails oder Konversationen zurückzuhalten, welche Interessenkonflikte, geheime Absprachen, Korruption, Datenmanipulation oder -verfälschung sowie andere substantielle Probleme offenlegen.

Inzwischen ist ein Punkt erreicht, an dem fast alles, was passiert, fossilen Treibstoffen, Kohlendioxid, anderen Treibhausgasen und jenen in die Schuhe geschoben wird, welche „die Realität eines (katastrophalen, vom Menschen verursachten) Klimawandels in Frage stellen“.

Die Behauptungen reichen inzwischen von implausibel bis lächerlich: Die Erde ist zum Untergang verurteilt, falls entwickelte Länder nicht bis zum Jahr 2020drastisch ihre Emissionen reduzieren; das arktische Eis wird verschwinden; Buschbrände werden immer häufiger und tödlicher; mehr Menschen werden durch einen Herzschlag sterben; die Hurrikane Harvey und Irma haben menschliche Aktivitäten als Ursache; Präsident Trump verursachte mit seinem Rückzug aus dem Paris-Abkommen den Hurrikan Florence (hier); Pflanzen in der Arktis werden zu groß; der Kaffeeanbau wird in vielen Ländern unmöglich; die Erde wird zu einer zweiten Venus; Schweine werden immer dünner; schmackhafte Gerichte wie Fischsuppe (cioppino) werden ein Ding der Vergangenheit. Und es gibt eine scheinbar endlose Liste mit behaupteten weiteren, noch viel absurderen, vom Menschen verursachten Katastrophen.

Der Kongress und die Trump-Regierung wollen ordentliche Wissenschaft und eine informierte Gesellschaft sicherstellen, Betrug und Korruption ausmerzen sowie „den Sumpf trockenlegen“. Falls sie das ernst meint, wird sie alle notwendigen Schritte unternehmen sicherzustellen, dass keine Universitäten oder andere Institutionen auch nur noch einen Cent Steuergeld bekommen, solange sie die hier vorgeschlagenen Änderungen nicht implementieren. Die Klima-Krise-Korruption wäre ein sehr guter Anfang damit!

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and other think tanks, and author of books and articles on energy, climate change and economic development.

Link: https://www.iceagenow.info/rooting-out-scientific-corruption/

Übersetzt von Chris Frey EIKE