Wie man den Bürger als immer dümmer verkauft…

Was die Bildzeitung über die Edertalsperre schreibt

Bild,de 05.07.2019: Wenn Sonne und Wind versagen Dieser See rettet Hessens Stromversorgung
Edertal – Alle reden über grüne Energie, Hessen hat sie: Fast die Hälfte des bei uns produzierten Stroms stammt aus erneuerbaren Energien. Doch was ist, wenn weder Sonne scheint, noch Wind geht?

Bild weiß wundersame Daten: 100.000 Haushalte können damit ein Jahr lang mit Strom versorgt werden

Bild.de 05.07.2019: … Dann kommt einer der größten Energiespeicher Hessens zum Einsatz: das Pumpspeicherwerk Waldeck 2. Am Rande des Edersees lagern in einem 330 Meter hoch gelegenem Speicherbecken fünf Millionen Liter Wasser. 100.000 Haushalte können damit ein Jahr lang mit Strom versorgt werden …

Was eine einfachste Dreisatzrechung ausweist

Laut einem Exkursionsbericht der TU Darmstadt [1] hat das besagte, laut Bildzeitung so überaus „rettungsfreudige“ Speicherkraftwerkt die folgenden Leistungsdaten:
Vollast: 480 MW,
Vollastdauer: 8 Stunden,
und somit einen Energieinhalt von 480 MW x 8 Stunden = 3.840 MWh

Die mittlere Haushaltsgröße in Deutschland beträgt laut Umweltbundesamt: mittlere Haushaltsgröße 2 Personen
Ein Zweipersonenhaushalt in einer Wohnung benötigt im Jahr:
2.500 kWh ohne Warmwasserbereitung,
3.000 kWh, wenn in einem Haus wohnend,
3.600 kWh, wenn Warmwasser mit Strom erzeugt wird

Wir nehmen als mittleren Haushalts-Jahresbedarf 3.000 kWh an. Damit lassen sich:
3.840.000 kWh/3.000 kWh = 1.280 mittlere 2-Personen-Haushalte ein Jahr lang versorgen, oder die genannten, 100.000 Haushalte ungefähr 112 Stunden, oder 4,7 Tage lang.

In Wirklichkeit sind es also nur 1,3 % der von Bild gemeldeten Anzahl „geretteter“ Haushalte

1.280 mittlere Haushalte, anstelle der von Bild angegebenen, 100.00 sind lediglich – noch dazu aufgerundete – 1,3 %. Diese Diskrepanz zu den von der Bild-Zeitung genannten 100.000 Haushalten ist so groß, dass wirklich jegliche Toleranzen in der Betrachtung im Fehlerrauschen mehr als verschwinden.

Es stellt sich damit aber die Frage: Ist die Bild-Redaktion wirklich so blöde, oder hält sie nur ihre Leser dafür? Allerdings ist beides ein Beleg für die inzwischen wirklich unterirdische, fachliche Qualität (oder eher: bewusste Verblödung) von Ökoenergie- und Klimaexpertisen [2], aufgrund deren unser einst weltweit hervorragendes Energiesystem von einer angeblichen „Intelligenz“ mit eiserner Konsequenz systematisch zerstört wird.

Kein Wunder, dass da eine 16jährige, schulschwänzende Schülerin und die „Freitagshüpfer“ leicht mithalten können, ja solche „Experten“ (einschließlich unserer etablierten Bundestagsparteien und deren „unfehlbaren“ Kanzlerin) sogar „vor sich hertreiben“.

Der Autor dankt einem EIKE-Blogleser für den Hinweis

Quellen

[1] TU Darmstadt: Das Pumpspeicherkraftwerk II Gruppe H Exkursionsbericht Wintersemester 2014/15

[2] EIKE 16.August 2019: Bei Hitzewellen: Erneuerbarer Strom ja bitte. Oder: Wer rettet Deutschland und Frankreich vor dem Ökostrom?




Wie haben sie das berechnet?

Was soll das alles nun? Ein Tweet über das, was Strogatz „mathematisches Twitter“ nennt. Das Tweet lautete:

em ♥︎ (@pjmdolI) 28. Juli 2019

Das ist einfach: Die korrekte Antwort lautet:

Jawohl, das stimmt! Die korrekte Antwort lautet: entweder 16 oder 1, abhängig von einem interessanten Aspekt der Mathematik. Das vorgestellte Image vermittelt uns ein paar Einsichten darüber, was hier los ist. Strogatz erklärt es so:

Obige Frage hat eine eindeutige und definitive Antwort – vorausgesetzt, wir richten uns alle nach den gleichen Regeln, welche die „Reihenfolge der Operationen“ vorgeben. Stehen wir wie in diesem Fall davor, verschiedene mathematische Operationen durchzuführen – um Ausdrücke in Klammern zu evaluieren, um Multiplikationen und Divisionen durchzuführen oder Additionen und Subtraktionen – die Reihenfolge der Durchführung dieser Operationen kann einen gewaltigen Unterschied ausmachen.

Wenn wir die Taschenrechner heranziehen, zeigt sich, dass meine Antwort absolut korrekt ist:

Bild von einem Twitterer)

Der TI-84Plus C von Texas Instruments zeigt das Ergebnis „16”, während der Casio fx-115MS das Ergebnis „1” zeigt.

Auch eine rasche Durchsicht des Online-Taschenrechners ergibt gemischte Ergebnisse:

Und vielleicht etwas genauer:

Mathe-Freaks wissen, dass das Problem in der Reihenfolge der Operationen liegt, und es gibt Konventionen hinsichtlich dieser Reihenfolge. In der Schule haben wir eine der folgenden Konventionen gelernt:

BODMAS ist eine Abkürzung. Sie steht für Bracket, Of, Division, Multiplication, Addition und Subtraction. In manchen Regionen ist PEDMAS (Parentheses, Exponents, Division, Multiplication, Addition und Subtraction) das Synonym für BODMAS.

PEMDAS ist eine Abkürzung für die Begriffe Klammern (Parenthesis), Exponenten, Multiplikation, Division, Addition, Subtraktion. Finden sich zwei oder mehr Operationen in einer einzigen Gleichung, gibt die Reihenfolge der Buchstaben in PEMDAS vor, was zuerst berechnet werden muss, was als zweites usw. bis die Rechnung vollständig ist. Falls es Klammern in der Gleichung gibt, sagt PEMDAS, zuerst die Berechnungen innerhalb der Klammern durchzuführen.

Strogatz sagt: „Die strikte Antwort zu dieser elementaren PEMDAS-Konvention ergibt nur eine Antwort: „16“. Oh, aber sein Eingabefeld (his editor) und viele Leser „…bestanden darauf, dass die richtige Antwort ,1′ sei“.

Um Strogatz‘ Ergebnis „16“ zu erhalten, muss man Folgendes machen: 8/2 = 4, dann 4 x (2+2) oder 4 x 4 = 16.

Wie man das Ergebnis „1“ bekommt, erklärt Strogatz so:

Was war da los? Nach der Lektüre der vielen Kommentare zu dem Beitrag erkannte ich, dass die meisten Kommentatoren eine andere (und anspruchsvollere) Konvention als die elementare PEMDAS-Konvention bemühen, die ich in dem Artikel beschrieben habe.

In dieser anspruchsvolleren Konvention, die oftmals in der Algebra Anwendung findet, wird einer impliziten Multiplikation höhere Priorität eingeräumt als einer expliziten Multiplikation oder expliziten Division, in welchen jene Operatoren aus Symbolen bestehen wie x; *; / oder ÷. Unter dieser anspruchsvolleren Version wird der impliziten Multiplikation in 2(2+2) höhere Priorität eingeräumt als in der expliziten Division in 8÷2(2+2). Mit anderen Worten, 2(2+2) sollte zuerst evaluiert werden. Dann ergibt sich 8÷2(2+2) = 8÷8 = 1. Nach der gleichen Regel, so argumentierten viele Kommentatoren, ist der Term 8÷2(4) nicht synonym mit 8÷2×4, weil die Klammern die sofortige Berechnung verlangen, was wiederum 8÷8 = 1 ergibt.

Falls also jedermann den gleichen Konventionen folgt, und zwar sowohl bei der Konstruktion von Gleichungen als auch bei deren Lösung, wäre alles in Ordnung und wir würden alle die von uns erwartete Antwort bekommen.

Aber…:

Diese (anspruchsvollere) Konvention ist sehr vernünftig, und ich stimme zu, dass die Antwort dann ,1′ ist, falls wir alle dieser Konvention folgen. Aber das ist eben allgemein nicht der Fall. Die Taschenrechner von Google und WolframAlpha benutzen die elementarere Konvention und unterscheiden nicht zwischen impliziter und expliziter Multiplikation, wenn sie darauf programmiert werden, einfache arithmetische Terme zu berechnen.

Und außerdem, nachdem Google und WolframAlpha evaluierten, was immer in Klammern steht, löschen sie diese Klammern effektiv und stellen deren Inhalt nicht höher in der Priorität. Im Einzelnen interpretieren sie 8÷2(2+2) als 8÷2x(2+2) und behandeln dies synonym mit 8÷2×4. Dann haben gemäß PEMDAS Division und Multiplikation die gleiche Priorität. Also rechnet man von links nach rechts und erhält 8÷2×4 = 4×4 und kommt zum Ergebnis 16. Für meinen Beitrag habe ich mich entschieden, mich auf diese einfachere Konvention zu konzentrieren.

Unser werter Mathematiker folgert:

Genauso ist es wesentlich, dass jeder, der Software für Computer, Tabellen und Taschenrechner schreibt, die Regeln der Reihenfolge von Operationen kennt und diesen folgt.

Aber ich habe schon gezeigt, dass die Software-Schreiber nicht alle den gleichen Konventionen folgen … Strogatz weist darauf hin, dass selbst anspruchsvolle Software wie WolframAlpha und Google nicht den anspruchsvollen Regeln folgen und „16“ erhalten.

Das finale Statement von Strogatz lautet: „Einige Tabellen-Kalkulationen und Software-Systeme weigern sich schlicht und ergreifend, die Frage zu beantworten – sie schrecken vor der verstümmelten Natur zurück. Das ist auch mein Gefühl sowie das Gefühl der meisten Mathematiker, mit denen ich gesprochen habe. Falls man eine eindeutigere Antwort haben will, dann stelle man eine eindeutigere Frage.

Kenneth Change von der NY Times schrieb jüngst dazu den Beitrag „Essay: Why Mathematicians Hate That Viral Equation“.

—————————

Vielleicht findet der eine oder andere diesen Beitrag instruktiv oder erheiternd. Die wirkliche Krux des Ganzen ist, dass der ursprüngliche Term „8÷2(2+2) absichtlich so schlecht formuliert worden ist, damit er unklar bleibt.

Aber was soll das Ganze jetzt? Nun, es erhebt sich eine sehr ernste Frage: Falls einfache mathematische Gleichungen mit verschiedenen Antworten interpretiert werden können oder verschiedene Lösungen ergeben, abhängig von der Reihenfolge der Operationen und unter der Vorgabe, dass selbst ernste mathematische Software verschiedenen Konventionen folgt – welches der sehr anspruchsvollen mathematischen Modelle, in denen die Variablen alle voneinander abhängig sind, muss iterativ gelöst werden?

Was die Klimawissenschaft betrifft – werden unterschiedliche zukünftige Klima-Szenarien simuliert, falls jemand die Reihenfolge der Berechnung ändert? Nicht in dem einfachen Sinn dieser viralen Twitty-Gleichung, sondern in einem erheblich ernsteren Zusammenhang: Sollte ein Klimamodell, ein General Circulation Model, erst nach Temperatur auflösen? Oder nach Luftdruck? Oder zunächst die einfallende Strahlung berücksichtigen? Das IPCC-Diagramm sieht so aus:

Ich versuchte, die Anzahl der Variablen zu zählen, die in diesem vereinfachten Diagramm auftauchen, und kam auf ein paar Dutzend – bevor ich erkannte, dass es zu vereinfacht war, um eine reale Anzahl zu liefern. Wo beginnt das Modell mit jeder Iteration? Spielt es eine Rolle, mit welcher Variablen es anfängt? Ergibt die Reihenfolge der Berechnungen vereinfachter Versionen der nicht-linearen Gleichungen einen Unterschied hinsichtlich der Ergebnisse?

Das muss es – würde ich denken.

Rechnen alle GCMs der westlichen Welt in der gleichen Reihenfolge? Was ist mit den zumeist unabhängigen russischen Modellen (INM-CM4 and 5)? Ergeben die russischen Modelle realistischere Ergebnisse, weil sie die mathematischen Operationen mit einer anderen Reihenfolge durchführen?

Ich weiß es nicht – aber es ist eine schreckliche Frage.

Link: https://wattsupwiththat.com/2019/08/07/howd-they-calculate-that/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Mit der einfachen Gleichung oben werde ich mal „hausieren“ gehen, mal sehen, was so kommt. Aber mir kam ein ganz anderer Gedanke: Da die CO2-Geschichte ja rein politischer Propaganda-Natur ist, wird man sicher die Reihenfolge der Rechnungen so gewählt haben, dass das Gewünschte herauskommt. Wie ist das eigentlich bei den kurz- und mittelfristigen Wettervorhersagemodellen (GFS, EZMW, ICON usw.)?




Das drohende Wind-Desaster von Boris Johnson

Der entscheidende Anhaltspunkt kam in Gestalt weit verbreiteter Stromausfälle vor zwei Wochen (hier). Eine Million Menschen waren betroffen, Züge blieben stehen, Passagiere waren viele Stunden darin gefangen.

Die Propaganda-Maschinerie des Establishments nahm sofort Fahrt auf. Ein Sprecher des National Grid sprach von einem „sehr, sehr seltenen Ereignis“. Außerdem versicherte er uns in klassischer Ablenkungs-Manier, dass es sich „nicht um böse Absicht oder einen Cyberangriff handelte“.

Nun gut. Welche Gründe hatte dann aber dieser Blackout, der – wie Richard North zu Recht hier sagte – eine „nationale Schande“ war und „die Art von Ereignis, welche wir eher in einer zugrunde gerichteten Ökonomie erwarten wie in Venezuela?“

Nun, die offizielle Antwort lautet „wir wissen es nicht und warten auf die Ergebnisse einer Untersuchung“.

Inoffiziell jedoch ist die Ursache schreiend offensichtlich. Das Nationale Netz von UK – und damit die Stromversorgung des Landes – wurde höchst gefährlich beeinträchtigt durch die Jagd nach erneuerbarer Energie. Je mehr unzuverlässige Quellen an das Netz gebracht werden – vor allem von Windturbinen – desto instabiler wird das ganze System.

Die jüngsten Stromausfälle waren alles andere als ein Einzelereignis, sondern nichts als ein Vorgeschmack auf noch Schlimmeres, das noch kommen dürfte.

Ursache dafür ist, dass Blackouts keine Schwäche des Stromsystems sind, sondern eine Folge der Einspeisung erneuerbarer Energie. Sie sind ein Merkmal derselben.

Klügere Köpfe prognostizierten und warnten genau davor schon seit Jahren. Christopher Booker beispielsweise beschrieb schon vor zehn Jahren die erfolgreiche Jagd der Regierung nach Windenergie als „das Verrückteste jemals in unserem Leben“. Er schrieb:

Sagen wir es ganz deutlich: UK steht vor einer beispiellosen Krise. Nicht mehr lange, und wir werden 40 Prozent unserer Erzeugungs-Kapazität verlieren. Und solange wir nicht augenblicklich mit einer Alternative aufwarten können, WERDEN die Lichter ausgehen“.

Nun, am Freitag waren die Lichter ausgegangen. Und die große Frage lautet jetzt: Wird die Regierung versuchen, die Risse zu verkleistern oder wird sie die Krise als eine Gelegenheit begreifen?

Das vielleicht Beste an diesen Stromausfällen ist, dass sie zu keinem ungünstigeren Zeitpunkt für die Windindustrie hätten kommen können.

Nachdem sich die Regierung von Boris Johnson törichterweise der Politik von Theresa May bzgl. Null-Kohlenstoff-Emissionen bis zum Jahr 2050 verpflichtet hatte, haben Big Wind – und viele von deren Unterstützern in den Mainstream-Medien – sich auf eine Goldgrube neuer Verträge eingestellt.

Erst am Sonntag vor diesem Stromausfall wartete die Mail on Sunday (bizarrerweise, ist das Blatt doch normalerweise ziemlich skeptisch bzgl. Umweltthemen) mit einer massiven Lobeshymne in seinem Wirtschaftsteil auf ob der „Lobby-Offensive“ seitens der Windindustrie: Energiefirmen haben eine Lobby-Offensive losgetreten, welche zu einer Errichtung einer neuen Generation von Windturbinen in den ländlichen Gebieten von UK führen kann. Direktoren großer Energieunternehmen drängen die Regierung, die Restriktionen zu lockern, welche derzeit noch die Installation von Windparks blockieren. Ihre Forderungen können die Konstruktion einer Flotte gigantischer Windturbinen auslösen im Zuge des Kampfes des Landes zum Erreichen der ambitionierten Ziele, Emissionen zu kappen und die Energie für Elektrofahrzeuge zu erzeugen. Wäre der Stromausfall nicht gewesen, hätten sie damit sogar auch durchkommen können. Aber jetzt – wenn Energieministerin Andrea Leadsom alles richtig macht, könnte sie in der Lage sein, das schändliche Programm in die Tonne zu treten.

Der Schlüssel hier wird es sein sicherzustellen, dass die Untersuchung fair, transparent und kein Grüngewäsch ist – also etwas, das recht unwahrscheinlich daherkommt, ist doch die National Grid-Gesellschaft vollständig der grünen Agenda hörig.

Falls die Untersuchung halbwegs sorgfältig durchgeführt wird, kann ich mir kaum vorstellen, dass sie zu einem anderen Ergebnis kommt als dass die Erneuerbaren das Netz immer weniger stabil machen und dass der Gedanke, immer neue Windprojekte auf den Weg in dieses überfrachtete System zu bringen, ein absolutes Auf-Keinen-Fall sein sollte.

Das wird so ziemlich von Leadsoms Willenskraft abhängen – und auch von der Unterstützung seitens ihrer Mit-Pragmatiker innerhalb des Kabinetts, als da wären Priti Patel, Jacob Rees Mogg und Liz Truss.

Bis jetzt wurden sogar klimaskeptische Kabinettsmitglieder gezwungen, so zu tun, als ob sie hinter dem Erneuerbaren-Selbstmordprogramm stehen – als Unterstützung für die Grünlastigkeit der Regierung von Boris Johnson.

Erst am Tag vor dem Blackout war Leadsom selbst höchst eifrig am twittern irgendeines Unsinns aus dem Department for Business, Energy and Industrial Strategy (BEIS), wobei sie für Net Zero, COP26 und die Windindustrie warb.

———————————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/08/14/delingpole-boris-johnsons-looming-wind-disaster/




Juli 2019 – war es der heißeste jemals?

Die NOAA hat Milliarden Dollar der Steuerzahler ausgegeben, um Satelliten in den Orbit zu bringen zur Überwachung des Wetters und damit auch des Klimas auf der Erde. Bezahlt werden zwei verschiedene wissenschaftliche Institutionen, UAH und RSS, um globale Temperatur-Datensätze der Erdatmosphäre zu erstellen. Aber die NOAA ignoriert die Datensätze dieser beiden Gruppen notorisch, wenn es darum geht, den Klima-Katastrophismus voranzutreiben.

Jene, welche eine vollständige wissenschaftliche Erklärung lesen wollen, warum der Juli 2019 NICHT der heißeste jemals war, sollten den Beitrag von Dr. Roy Spencer vom 2. August anklicken (in deutscher Übersetzung hier).

All jenen, die es vorziehen, sich visuell damit zu befassen, zeige ich zwei Graphiken der beiden globalen Temperatur-Datensätze via Satelliten, welche die NOAA ignoriert, wenn sie „heißeste-Jemals“-Erklärungen abgibt. Zunächst die Graphik von Remote Sensing Systems:

Es ist interessant anzumerken, wie anders sich der visuelle Eindruck darstellt zwischen den jüngsten Daten und den weiter zurück liegenden Daten. In das obere Bild mit den „jüngsten“ Daten ist die Trendlinie des gesamten langzeitlichen Datensatzes eingezeichnet – und nicht die Trendlinie der jüngsten Daten. Nichtsdestotrotz ist aber offensichtlich, dass die Daten flach verlaufen (oder sogar einen Abwärtstrend aufweisen, wenn man am Höhepunkt des Jahres 2016 beginnt).

Als Erinnerung für all jene, die vergessen haben, welche Änderungen RSS bei den Berechnungen für 2016 vorgenommen hat (hier), hier die folgende Graphik (von Climate4you):

Die Visualisierungen der gleichen Daten vom National Space Science & Technology Center at The University of Alabama in Huntsville, allgemein bekannt als UAH, sehen so aus:

Nur damit klar wird, wovon wir reden: die untere Troposphäre ist der Teil der Atmosphäre, in welchem die meisten von uns leben. Die höchsten Berge der Erde sind fast 10.000 Meter hoch, genau die unteren 10 km der Troposphäre. Die Obergrenzen tropischer Gewitter können eine Höhe bis zu 12,5 km erreichen [bei besonders schweren Hagelunwettern in Mitteleuropa sind auch schon Obergrenzen um 17 km beobachtet worden, z. B. Ende Juni 2002! Anm. d. Übers.] Darunter, in der unteren Troposphäre kommt es zu den alltäglichen Wetterereignissen, den Winden, welche die Bäume bewegen sowie andere Wetter- und Klimaphänomene, welche fast alle Menschen immer wieder erleben. Bergsteiger wie ich, welche in den Sierras von Kalifornien oder in den Rocky Mountains die Gipfel erklommen haben, befanden sich an der Obergrenze der unteren Troposphäre.

Diese Graphik hilft ein wenig bei der Einschätzung:

Link: https://wattsupwiththat.com/2019/08/16/july-2019-hottest-july-ever/

Übersetzt von Chris Frey EIKE




Chinessische Wissen­schaftler warnen vor globaler Abkühlung und Auswir­kungen der Sonnen­aktivität

Die Studie ergab, dass Winde aus dem arktischen Sibirien schwächer geworden waren. Die Baumgrenze von Nadelbäumen hat sich nordwärts ausgebreitet, und es gab einen stetigen Anstieg der Biodiversität im Zuge des allgemeinen Erwärmungstrends, der bis heute im Gange ist. Das hat wenig zu tun mit der Zunahme von Treibhausgasen, welche mit dem Beginn der industriellen Revolution einhergingen.

Die Leiterin der Studie Dr. Wu Jing vom Key Laboratory of Cenozoic Geology and Environment am Institute of Geology and Geophysics, Fachbereich der Chinese Academy of Sciences, sagte, dass die Studie keine Belege für einen menschlichen Einfluss bzgl. der milder werdenden Winter in China ergeben habe.

„Zu den treibenden Kräften gehören die Sonne, die Atmosphäre und deren Wechselwirkung mit dem Ozean. Wir haben keinen menschlichen Einfluss finden können. Das heißt aber nicht, dass wir uns jetzt zurücklehnen können und gar nichts zu tun brauchen“.

Abbildung: Moon Lake, ein kleines Maar, welches versteckt liegt in der Greater Khingan Mountain Range in China, war über eine Dekade lang Schauplatz von Forschungen an den versteckt in den Sedimenten liegenden Geheimnisse. Photo: Baidu

Wu und ihre Kollegen sind besorgt, weil sich die Gesellschaft immer mehr an das Konzept einer globalen Erwärmung gewöhnt und dass die Menschen ein Vertrauen in unsere Fähigkeit entwickeln, den Klimawandel zu kontrollieren, das völlig fehl am Platze ist. Die Natur, so warnten sie, könnte uns austricksen und uns vollkommen unerwartet treffen – was zu Chaos, Panik, Hunger und sogar Kriegen führen könnte, wenn das globale Klimasystem plötzlichen Änderungen unterworfen ist. Schon jetzt gibt es der Studie zufolge alarmierende Anzeichen.

Wu und ihre Kollegen haben über ein Dutzend Jahre damit zugebracht, die Sedimente des Moon Lake zu untersuchen. Dieser liegt versteckt in der Greater Khingan Mountain Range in der autonomen Region Innere Mongolei. Es zeigte sich, dass die milder werdenden Winter während der letzten 6000 Jahre keine gleichmäßig verlaufende Sache waren, ergaben sich doch Auf- und Abwärts-Schwingungen etwa alle 500 Jahre.

Diese Ergebnisse bestätigten eine frühere, im Jahre 2014 veröffentlichte Studie von chinesischen Wissenschaftlern. Sie hatten als Erste die über 500 Jahre laufende zyklische Verteilung des Sommermonsuns in China entdeckt und den Zusammenhang mit der Sonnenaktivität erkannt.

Die Forschungen aus dem Jahr 2014, in welcher 5000 Jahre lange Datenaufzeichnungen ausgewertet worden waren, zeigten, dass die gegenwärtige Warmphase des Zyklus‘ während der nächsten Jahrzehnte zu Ende gehen und in eine 250 Jahre lange Kaltphase wechseln könnte.

Wu erklärte, dass die jüngste Studie, in der Daten über 10.000 Jahre untersucht worden waren, nicht nur geholfen hat, ein vollständigeres Bild des 500-Jahre-Zyklus‘ zu zeichnen, sondern auch einen zuvor unbekannten Prozess hinter dem Phänomen zeigte. Dieser besagt, dass der Einfluss der Sonne auf das Klima der Erde größer sein könnte als bisher gedacht.

Wu zufolge ist jedoch die Variation der Sonnenaktivität allein nicht stark genug, um die rapiden Änderungen der Vegetation zu induzieren, welche aus den Sedimenten im Moon Lake hervorgingen. Stattdessen fanden die Wissenschaftler, dass der Einfluss der Erwärmung verstärkt wurde durch eine massive Wechselwirkung zwischen der Ozean-Oberfläche und der Atmosphäre im Pazifik, bekannt als die El Nino Southern Oscillation.

Im Zuge der Bewertung der Ergebnisse der Studie sagte Wu, dass sie jetzt mehr besorgt war bzgl. einer Abkühlung, nicht einer Erwärmung. „Ein plötzlicher Temperaturrückgang wird niemandem nützen. Das größte Problem ist, dass wir zwar wissen, dass es dazu kommt, aber nicht, wann es dazu kommt“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/chinese-scientists-warn-of-global-cooling-impact-of-solar-activity/




Unbequeme Wahrheiten: Die biologisch-geologische CO2-Sackgasse

Die Wissenschaft, so behaupten es die meisten Medien, sei sich in der Frage des Klimawandels weitgehend einig: Der Mensch sei dabei, das Klima in katastrophaler Weise zu destabilisieren. Die Anhänger der Theorie vom menschengemachten Klimawandel (AGW, Antrophogenic Global Warming) sehen als Hauptursache hierfür die Verbrennung fossiler Rohstoffe, welche das als Treibhausgas bezeichnete CO2 freisetzt [WICC, WICO]. Dadurch werde der eigentlich stabile CO2-Kreislauf unseres Planeten in fast schon irreparabler Weise gestört, siehe Bild 1.

Bild 1. Nach Auffassung der AGW-Anhänger hat erst die industrielle Revolution einen dramatischen Anstieg der CO2-Konzentration in der Atmosphäre verursacht (Grafik: Wikipedia, Global Warming Art, Creative Commons)

Ihre These besagt im Wesentlichen, dass sich die Freisetzung von CO2 aus organischer Materie und seine erneute Bindung durch Fotosynthese seit hunderttausenden von Jahren mehr oder weniger im Gleichgewicht befanden. Dieses werde erst jetzt durch den vom Menschen verursachten CO2-Anstieg gefährdet: „Die CO2-Konzentration in der Atmosphäre war jahrtausendelang praktisch konstant und steigt erst an, seit wir dem System riesige Mengen an zusätzlichem Kohlenstoff aus fossilen Lagerstätten zuführen“, erklärte hierzu der als Warner vor der sogenannten Klimakatastrophe zu Prominenz gekommene Prof. Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung in einem Focus-Artikel [FORA]. Im gleichen Beitrag sagte er aus, bei den vom Menschen verursachten Emissionen handele es sich um Milliarden Tonnen Kohlendioxid, die dem eigentlich stabilen Kohlenstoffkreislauf netto hinzugefügt würden. Ähnliche Auffassungen vertreten auch zahlreiche weitere Klimaforscher, so auch die Autoren der inzwischen kontrovers diskutierten „Hockeystick-Kurve“ (Bild 2) des bekannten AGW-Apologeten Michael E. Mann [IPCC]. Am drastischsten aber formulierte es der US-Politiker Al Gore anlässlich der Auszeichnung mit dem Nobelpreis: „Wir Menschen haben es mit einem globalen Notfall zu tun. Die Erde hat jetzt Fieber. Und das Fieber steigt“ [FOAL].

Bild 2. Die „Hockeystick-Kurve“: Rekonstruierte Temperatur (blau) und Thermometerdaten (rot), die Fehlergrenzen sind in grau gezeigt (Grafik: Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes, IPCC/ Wikimedia Creative Commons)

Die Realität: CO2-Rückgang seit 600 Millionen Jahren

Ein völlig anderes Bild zeichnet dagegen Prof. Wolfgang H. Berger von der University of California San Diego in einem auf der Homepage der Universität angebotenen Online-Kurs [CALU], Bild 3. Demnach lag der CO2-Gehalt der Erdatmosphäre vor etwa 500-600 Millionen Jahren bis zu 20mal höher als in den letzten paar Jahrhunderten vor der industriellen Revolution. Im Laufe der Zeit gab es dabei auch teils erhebliche Schwankungen. So begann der CO2-Gehalt vor etwa 450 Millionen Jahren erheblich abzusinken, bevor er vor rund 250 Millionen Jahren erneut auf etwa den fünffachen heutigen Wert anstieg. Seither nimmt er – wenn auch mit einer Reihe von Schwankungen – im Prinzip kontinuierlich ab. Heute haben wir die seit 500-600 Millionen Jahren nahezu niedrigsten CO2-Konzentrationen in der Atmosphäre. Würde man der obigen „Fieber“-Argumentation folgen, dann hätte das Leben auf der Erde vor Jahrmillionen wegen zu hoher Temperaturen regelrecht kollabieren müssen. So sprach der Schweizer Professor und IPCC-Berichts-Chef Thomas Stocker in einem Interview mit der Weltwoche am 11. 4. 2013 von einem Temperaturanstieg von 2 bis 4,5 °C bei Verdopplung des vorindustriellen CO2-Gehalts von 280 ppm [STOC]. Zahllose Fossilien belegen jedoch, dass sich die Tier- und Pflanzenwelt früherer Zeiten trotz eines um bis zu 2.000 % (!) höheren CO2-Gehalts im Groβen und Ganzen bester Lebensbedingungen erfreute.

Bild 3. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger)

Versauerung der Ozeane durch CO2?

Aus dem gleichen Grund stellt sich auch die Frage, wie ernst man Warnungen vor einer „Versauerung“ der Ozeane durch ansteigende CO2-Gehalte nehmen sollte. Gestützt auf diese Alarmrufe werden zurzeit groβe Summen an Forschungsgeldern ausgelobt, um die vorgeblich nachteiligen Auswirkungen des CO2-Anstiegs auf maritime Lebensformen zu untersuchen. Besonders im Visier sind dabei Korallen und sonstige Lebewesen, die Kalkskelette oder Kalkschalen ausbilden. Ihnen soll der eher bescheidene Anstieg des CO2-Gehalts in der Atmosphäre von den vorindustriellen knapp 300 ppm auf heute etwa 390 ppm Schäden zufügen, die sich nach Ansicht mancher Gelehrter erschwerend auf die Fähigkeit zur Kalkabscheidung auswirken.

Irgendwie scheint man jedoch einige 100 Millionen Jahre vor unserer Zeit vergessen zu haben, dies den damaligen Meereslebewesen mitzuteilen. Vermutlich aufgrund dieser Unkenntnis müssen sie sich deshalb vom Kambrium bis zur Kreidezeit – rund 540 bis etwa 65 Mio. Jahre vor unserer Zeit – trotz eines bis zu 20fach höheren CO2-Gehalts bester Gesundheit erfreut haben. Überall auf der Erde beweisen zahllose, teils hunderte von Metern dicke Kalk- und Kreideschichten, dass sie imstande waren, gesunde und vollständige Kalkskelette auszubilden, Bild 4. Angesichts dieser Tatsachen fällt es schwer zu verstehen, wieso überhaupt Gelder für Forschungsprojekte zu den angeblich negativen Auswirkungen der „Meeresversauerung“ ausgegeben werden. Schliesslich hält die Geologie doch alle dazu nur wünschbaren Gegenbeweise in Form gut erhaltener Kalkfossilien in nahezu unendlichen Stückzahlen bereit – man muss nur hinsehen und Eins und Eins zusammenzählen.

Bild 4. Im Kalk der Insel Gotland eingebettetes Fossil

Wohin ist das CO2 entschwunden?

Da schwerere Atome wie das des Kohlenstoffs unter den auf unserer Erde geltenden Bedingungen bekanntlich nicht ins Weltall entschwinden, stellt sich angesichts der heutigen niedrigen Werte die Frage, wo all das CO2 gelandet ist, das vor Urzeiten in unserer Atmosphäre und unseren Ozeanen vorhanden war. Die Antwort ist leicht zu finden: Es ist nicht ins Weltall entwichen, sondern steckt im Erdboden. Und interessanterweise ist das Leben selbst die primäre Ursache für dieses Verschwinden. Die überwiegende Menge des vor Jahrmillionen vorhandenen CO2 wurde zunächst von Lebewesen aufgenommen und mit anderen Elementen und Molekülen zu nichtflüchtigen körpereigenen Molekülen verbunden. Zu den wichtigsten der dabei gebildeten Substanzen gehört der bereits erwähnte Kalk (Calciumcarbonat, CaCO3), das Material, das auch die Grundstruktur unserer Knochen bildet. Im Laufe von Äonen haben sich in den Ozeanen daraus mächtige Sedimentschichten gebildet 2). Rund 80 % der gesamten Kohlenstoffvorräte der oberflächennahen Zonen der Erde sind heutzutage in Form von Kalkstein und Dolomit fest gebunden, Bild 5. Man muss sich vergegenwärtigen, dass das darin gefangene CO2 ursprünglich aus der Atmosphäre bzw. den Ozeanen stammt, weil seine Bindung im Kalk überwiegend durch lebende Organismen erfolgte, die es sich vorher per Fotosynthese und Nahrungskette einverleibt haben [WIKI1, KALK, MIAT2]. Durch diesen dauerhaften Einschluss im Kalk wurde Kohlenstoff, die Grundlage allen Lebens, nach und nach aus den natürlichen Kreisläufen entfernt. Weitere CO2-Senken der Erde sind neben den Kalkgesteinen noch die sogenannten Kerogene, das sind organische Bestandteile in alten Meeressedimenten, die durch Druck und Hitze umgewandelt wurden [GEO, WIKI2], sowie als geradezu winzige Fraktion die Lagerstätten von Kohle, Erdöl und Erdgas.

Bild 5. Überblick über die aktuellen Mengen an Kohlenstoff in und auf der Erdkruste sowie in Atmosphäre und Ozeanen (Gashydrat ≅ Tiefsee-Methanhydrat, Böden ≅ Pedosphäre1), Lebewesen ≅ Biomasse)

Was hatten wir, wie viel ging verloren?

Schon der erste Blick auf Bild 5 zeigt, dass von den Mengen an Kohlenstoff bzw. gasförmigem CO2, die es einst in Atmosphäre und Ozeanen gab, nur noch klägliche Reste übrig sind. Atmosphäre und Ozeane, Erdböden (Pedosphäre1)) sowie alle zurzeit lebenden Tiere und Pflanzen enthalten gerade noch 0,05 % (0,5 Promille) dessen, was früheren Vertretern des Lebens auf unserem Planten insgesamt zur Verfügung stand. Im Vergleich zu den in Kalkstein und Kerogen gebundenen Mengen sind die uns bekannten Vorräte an fossilen Brennstoffen – Kohle, Erdöl und Erdgas – mit nur etwa 70 Millionstel der Gesamtmenge geradezu lächerlich gering.

Interessant ist die Frage, wie sich die früher einmal verfügbaren CO2-Mengen im Verhältnis zur gesamten Erdatmosphäre darstellen. Wenn man einmal ausrechnet, wie viel CO2 im Verlauf der Äonen in Gestein, Kerogen usw. umgewandelt wurde, so landet man bei etwa 275 Billiarden (275 * 1015) Tonnen – mehr als 50 Mal die Masse der gesamten heutigen Erdatmosphäre. Dies legt den Schluss nahe, dass es auf der Erde Kohlenstoffquellen gibt bzw. gegeben hat, die einen mehr oder weniger kontinuierlichen Zustrom an CO2 in die Atmosphäre bewirkt haben, denn nach dem bereits erwähnten aktuellen Stand der Wissenschaft wies die Atmosphäre in den letzten ca. 600 Mio. Jahren zu keiner Zeit ständige CO2-Gehalte von mehr als 1 % auf. Als wahrscheinlichste CO2-Quellen können Vulkanismus sowie in gewissem Umfang die Verwitterung von Gesteinen angenommen werden.

Bild 6. Fossile muschelartige Meeresbewohner (Kopffüßer?) mit weitgehend erhaltener Kalkschale (Foto: Autor)

Gefahr durch fossile Brennstoffe?

Eine der wichtigsten Erkenntnisse aus der Betrachtung der vorliegenden Zahlen ist, dass die heutige „Klimawissenschaft“ augenscheinlich von Leuten dominiert wird, die ihre ganz eigenen Vorstellungen von den Grundregeln ernsthafter Wissenschaft entwickelt haben. Zumindest bis vor 40 Jahren galt es an naturwissenschaftlichen Fakultäten noch als selbstverständlich, dass man eine Aufgabenstellung erst einmal von allen Seiten und unter allen Aspekten zu betrachten hatte, bevor man anfing, Hypothesen aufzustellen und Beweisführungen aufzubauen. Dazu gehört bei langfristigen Entwicklungen untrennbar auch die historische Perspektive, und zwar über ausreichend lange Zeiträume, um systematische Einflüsse von zufällig bedingten Schwankungen unterscheiden zu können. Hält man sich an diese Regel, so fällt es schwer zu glauben, dass die jährliche Verbrennung von wenigen Promille eines Anteils von lediglich fünf Millionstel (5 ppm) des ursprünglich vorhandenen Kohlenstoffvorrats in und auf der Erdkruste bei unserem Planeten regelrechte „Fieberschauer“ auslösen und sein Klima irreparabel destabilisieren soll. Den AGW-Anhängern muss man vorhalten, sich bei ihrem Alarmismus wegen des angeblich stabil in der Atmosphäre verbleibenden CO2 nicht ausreichend um die Frage gekümmert zu haben, welche CO2-Kreisläufe es denn in der Natur überhaupt gibt und wie sie wirken. Im Übrigen sollte man nicht vergessen, dass eisfreie Polkappen erdgeschichtlich den Normalzustand darstellen und etwa 80 bis 90 Prozent der Erdgeschichte ausmachen, während Zeiten mit vereisten Polkappen als Ausnahme gelten [WIEI].

Bild 7. Die Daten aus Bild 3 belegen einen seit rund 230 Mio. Jahren recht stabilen Abwärtstrend des CO2-Gehalts der Atmosphäre. Während dieser Zeit ist die Konzentration um 80 % gesunken.

Der Trick, mit dem die Vertreter der AGW-Hypothese arbeiten, ist schlicht der, dass sie die zeitliche Dimension so verkürzen, bis der von ihnen gewünschte Effekt „bewiesen“ zu sein scheint. Die hier dargelegten Fakten legen dagegen zwei ganz andere „unbequeme“ Hypothesen nahe: Erstens scheint die Klimawirksamkeit des CO2 sehr viel geringer zu sein als von den AGW-Vertretern behauptet. Zweitens hat das verfügbare CO2 vor allem in den letzten 230 Mio. Jahren recht stetig abgenommen, Bild 7. Es ist sogar nicht auszuschlieβen, dass der Planet inzwischen diesbezüglich soweit verarmt ist, dass eine neue „Eis-Erde“ (Snowball Earth) [SNOW] viel eher drohen könnte als eine katastrophale Erwärmung.

1) Als Pedosphäre wird die sogenannte „Bodenhülle“ mit Humus, Torf, Sedimenten und Mineralien bezeichnet. Die Pedosphäre markiert damit den Grenzbereich der Erdoberfläche, in dem sich die Lithosphäre, die Hydrosphäre, die Atmosphäre und die Biosphäre überschneiden. Die Masse des darin enthaltenen Kohlenstoffs wird mit rund 1.500 Mrd t angegeben. [WIPE]

2) Natürlich gibt es auch zahlreiche und vielfältige sekundäre Kalksteinformationen, die nicht direkt durch Bindung von gasförmigem CO2 entstanden sind. Dies kann jedoch für die hier angestellten Betrachtungen vernachlässigt werden, da solche sekundären Gesteine aus primären Ablagerungen hervorgegangen sind, auf welche das Hauptargument des Artikels wiederum zutrifft. Ähnliches gilt auch für den Dolomit (CaMg[CO3]2), der laut Wikipedia im Wesentlichen durch Wechselwirkung von magnesiumhaltigen Lösungen mit Calcit-Sedimenten wie Riffkalkstein entstanden ist.

Quellen

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml, abgerufen 21.4.2013

[FOAL] http://www.focus.de/politik/zitate/zitat_aid_228903.html, abgerufen am 2.5.2013

[FORA] Klimawaage außer Balance, FOCUS Magazin http://www.focus.de/wissen/klima/tid-8638/diskussion_aid_234323.html, abgerufen am 21.4.2013

[GEODZ] http://www.geodz.com/deu/d/Kerogen, abgerufen am 24.4.2013

[IPCC] Fig. 2.20 des dritten Berichts des Intergovernmental Panel on Climate Change (IPCC) der UNO

[KALK] Kalk – ein Rohstoff aus Schalen und Knochen, http://www.kalk.de/index.php?id=35, abgerufen am 20.4.2013

[MIAT2] Kalkgesteine, Mineralienatlas, http://www.mineralienatlas.de/lexikon/index.php/Mineralienportrait/Calcit/Kalkgesteine, abgerufen am 20.4.2013

[SNOW] http://snowballearth.org/when.html, abgerufen am 22.4.2013

[STOC] http://www.eike-klima-energie.eu/news-cache/ipcc-berichts-chef-thomas-stocker-zeigt-im-weltwoche-interview-unerklaerliche-gedaechtnisluecken-die-gespraechsanalyse-von-vahrenholt-und-luening/ abgerufen am 1.5.2013

[WICC] Kohlenstoffzyklus, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffzyklus, abgerufen 21.4.2013

[WICO] Kohlenstoffdioxid, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffdioxid, abgerufen 21.4.2013

[WIEI] http://de.wikipedia.org/wiki/Zwischeneiszeit , abgerufen am 10.5.2013

[WIKI1] Kalkstein, Wikipedia, http://de.wikipedia.org/wiki/Kalkstein, abgerufen am 21.4.2013

[WIKI2] Kerogen, Wikipedia, http://de.wikipedia.org/wiki/Kerogen, abgerufen am 24.4.2013

[WIPE] http://de.wikipedia.org/wiki/Pedosph%C3%A4re abgerufen am 1.5.2013




Bei Hitzewellen: Erneuer­barer Strom ja bitte. Oder: Wer rettet Deutsch­land und Frank­reich vor dem Ökostrom?

Wenn Atomkraft „streikt“, muss Ökoenergie retten …

… lies Bündnis 90/Die Grünen wissen:
the european 9.08.2019 (Auszug): [1] Bei Hitzewellen: Erneuerbarer Strom ja bitte
Bei Hitzewellen ist Frankreich auf deutschen Erneuerbaren-Strom angewiesen … Frankreich musste wegen der starken Hitze die Leistung von Atomkraftwerken drosseln und Strom importieren.
… Trotzdem will Frankreich die Laufzeiten von Altmeilern verlängern.

GRÜNES Energie-Fachwissen pur

[1] “Die französischen Atomkraftwerke müssen in Hitzezeiten ihre Leistung erheblich drosseln, um Umweltauflagen zu erfüllen. Das Kühlwasser trägt nämlich direkt zur Erwärmung der Meere und Flüsse bei. Deren Temperatur darf in Frankreich jedoch keine 28 Grad überschreiten …
Frankreich auf erneuerbare Energie aus Deutschland angewiesen
Das war vor kurzem der Fall, als in der Woche vom 22. Juli 2019 in Frankreich neue Temperaturrekorde gebrochen wurden. Bei Hitze erzeugen Atomkraftwerke (AKW) weniger Strom. Zeitgleich steigt aber auch der Stromverbrauch, nicht zuletzt wegen der Betätigung von Klimaanlagen.
Konsequenz: Frankreich produziert tagsüber selber nicht mehr genügend Strom um seinen Bedarf zu decken. Es ist auf Stromimporte angewiesen.
Am 25. Juli um 12.30 Uhr wurden zum Beispiel 3 Gigawatt (GW) aus Deutschland und Belgien importiert, um die französische Nachfrage zu decken. Das entspricht etwa der Leistung von mehr als zwei Cattenom-Reaktoren. Innerhalb desselben Tages sank der Anteil der Atomkraft an der französischen Energieerzeugung von 75 auf 62 Prozent. Im Vergleich mit dem 25. Juni 2019 produzierte Frankreich an diesem Mittag sogar 8 GW Atomstrom weniger. Das zeigt: Atomkraft ist keine klimataugliche Technologie und Frankreich sollte schnellstmöglich in den schnelleren Ausbau von erneuerbaren Energien investieren …

Die Energiefakten am 25.07.2019

Lasse man die GRÜNEN Kenntnisse, dass französische Kernkraftwerke „Meere“ erwärmen und dieses in Frankreich keine 28 Grad überschreiten darf, sowie man 3 GW Strom (das ist angebotene Leistung, importiert und bezahlt wird aber die Energie, also Leistung x Zeit) nicht exportiert, als „Ausrutscher“ einer engagierten, mit dem Thema jedoch erkennbar überforderten Schreibperson beiseite und wenden uns gleich dem denkwürdigen Tag in der Öko-Energiegeschichte zu, als fehlender Kernkraftstrom wundersam durch deutschen Ökostrom ersetzt wurde, um Frankreich vor dem drohenden Blackout zu retten.

Zuerst sehen wir nach, was an dem denkwürdigen, 25. Juli 2019 gegen 12.30 Uhr im Stromnetz geschah:
Ein erstes Bild zeigt, wie Deutschland bis ca. 08 h Strom von Frankreich importierte, um dann mit dem Maximalwert um 13 h, Strom dorthin zu exportieren. In der Spitze waren es gegen 13 h dann 1,846 GW Angebot.

Bild 1 Strom Import/Export Deutschland/Frankreich am 25.07.2019. Maximalangebot an Frankreich um 13 h: 1,846 GW

Das war allerdings nur ein kleiner Teil des Stromexports. In Summe sah es aus wie im nächsten Bild. Man sieht, dass Österreich mit weitem Abstand mit einem Angebot von 8,044 GW um 13 h den meisten Strom abnahm.

Bild 2 Strom Import/Export Deutschland gesamt am 25.07.2019. Größter-Abnehmer ist Österreich mit einem Angebot um 13 h von 8,044 GW

Nun noch die deutschlandweite Öko-Energieerzeugung und Bedarfe an diesem denkwürdigen Tag:
Gegen 13 h betrug der Eigenbedarf Deutschlands 72,95 GW. Das Ökoenergie-Leistungsangebot betrug kurzzeitig ca. 32,73 GW, also 45 % davon.

Bild 3 Ökostrom-Erzeugung Deutschland am 25.07.2019 ohne Wasser und Biogas

Den großen, fehlenden Rest mussten die noch „zugelassenen“, konventionellen Kraftwerke erzeugen.

Bild 4 Konventionelle Kraftwerke: Angebotene Leistung Deutschland am 25.07.2019

Bild 5 Leistungsanteile am 25.07.2019 im deutschen Energienetz

Nach den Zahlen wurde nicht Frankreich, sondern Österreich vor Energiearmut gerettet

Führt man die GRÜNE Interpretation zu Ende, dann hat Deutschland am 25.07.2019 gar nicht Frankreich, sondern Österreich vor dem Strom-Blackout gerettet. Denn dorthin wurde über den gesamten Tag durchgängig erheblich mehr Leistung geliefert, als nur zeitweise nach Frankreich.
Allerdings hat Österreich keine Atomkraftwerke. Woher stammt dann deren „Energiearmut“, die Deutschland erkennbar noch vor dem Nachbarland Frankreich retten musste? Warum haben die GRÜNEN nicht das den Zahlen nach doch wesentlich energieärmere Österreich als öko-grandioses, deutsches Rettungs-Beispiel genannt?
Hallo, Herr Söder! Warum merken Sie das aber nicht und nutzen es nicht sofort und konsequent als Druckmittel gegen die unverschämten und EU-Gleichheitsrecht ignorierenden Landstraßenblockaden seitens Österreich? Fragen, über Fragen.
Dem Autor kommt dazu noch eine Frage: Das CSU-Energiekonzept sieht vor, Bayern wesentlich abzuschotten und ökoautark zu machen. Für Energie-Notfälle ist allerdings ein Bezug – also die Notrettung – aus Österreich vorgesehen. Wie man erkennt, zumindest nach den Zahlen ein ziemlich (un-)durchdachtes Konzept.

Frankreich hat bereits das Energieproblem, welches Deutschland noch bekommt

Die Eigenerzeugung in Frankreich befindet sich allerdings bereits im Grenzbereich: [3] Die wesentlichste Kennzahl im Energiehaushalt von Frankreich ist der Gesamtverbrauch von 450,80 Milliarden kWh elektrischer Energie pro Jahr. Pro Einwohner ist dies also ein Verbrauch von rund 6.730 kWh. (Ergänzung, Stand 2014: Frankreich 6.940 kWh, Deutschland: 7035,5 kWh pro Einwohner)
Frankreich könnte sich vollständig selbst mit Energie versorgen. Die Gesamtproduktion aller Anlagen zur Elektrizitätsgewinnung liegt bei 529 Mrd kWh, also 117% des Eigenbedarfs. Dennoch handelt Frankreich seinen Strom mit anderen Ländern.

Die Erzeugungskapazität von gerade einmal 117 % führt zwangsläufig dazu, dass bei Revisions-bedingten Abschaltungen und selbst geringfügigen Leistungsminderungen die Versorgungsgrenzen erreicht werden. In Frankreich ein „alltägliches“ Ereignis. Allerdings mehr im Winter als im Sommer: swp.de 21.01.2017: Energie Frankreich droht der Strom auszugehen

Das hat gar nichts mit einem ominösen Klimawandel zu tun. Es ist nur ein Beispiel, dass die Politiker in diesem Land beim weitsichtigen Planen nicht besser sind als unsere. Wir haben als Beispiel den BER, Frankreich schon unseren (künftigen) Energiezustand.

Nun die Energiezukunft Deutschlands gestreift. Die folgende Tabelle listet mit teils etwas veralteten – zur Veranschaulichung aber immer noch geeigneten – Werten Deutschlands Erzeugungsdaten.

Bild 6 Installierte Leistungen an Stromerzeugern in Deutschland. Hinweis: Werte teils 2014, damit nicht aktuell. *modifiziert

Aktuell hat Deutschland einen mittleren Strombedarf von knapp über 60 GW und maximal um die 70 GW. Die installierte Leistung ist mit ca. 184 GW somit drastisch überhöht. Alleine die Leistung konventioneller Kraftwerke oder alleine der installierten Ökoenergie reichen zur Spitzenlastdeckung locker aus.
Das Bild ist jedoch stark verzerrt. Denn die Ökoenergie-Erzeuger liefern niemals die installierte Leistung, sondern nur geringe Bruchteile davon: Wind ca. 30 % und Solar ca. 10 % im Jahresmittel.

Werden die konventionellen Kraftwerke wie angeordnet weggeschaltet, bleiben von den Ökoerzeugern nur ca. 32,4 GW wirklich angebotener Jahresmittelwert übrig. Das reicht nicht im Ansatz zur Versorgung von Deutschland aus.

Solche von weissen, alten Männern in 5 Minuten vorzeigbare Rechenspielereien sind jedoch „not amused“. Denn solche stören das hehre Bild der Öko-Ideologie.
Und so kann auch ein Herr Söder ohne zu zucken, aber begeistert beklatscht von Bürgerinitiativen, Umweltverbänden und nationalen, wie internationalen NGOs verkünden, dass die verschrieenen, konventionellen Grundlastkraftwerke gefälligst vorzeitig vom Netz sollen (und er die fehlende Energie durch sündhaft teure Gaskraft(Werke) ersetzen will).

Die Engländer erleiden es bereits

kaltesonne: Am Freitag dem 9. August 2019 ist in der Millionenstadt London sowie Nachbarregionen der Strom ausgefallen. In der deutschen Presse hieß es lapidar (hier SPON):
Grund für die Panne waren nach Angaben des Netzbetreibers National Grid zwei fehlerhafte Stromgeneratoren. Die Probleme seien inzwischen behoben worden, teilte das Unternehmen am Abend mit …
Auf Bloomberg erfährt man dann aber doch noch einige wichtige Zusatzinformationen:
London and surrounding areas suffered a widespread power outage Friday during the evening rush hour after windpower and natural gas generation levels dropped, according to data from network manager National Grid Plc.

“Today what happened is a major offshore wind generation site and a gas turbine failed at the same time,” said Devrim Celal, chief executive officer of Upside Energy in London, which contracts with National Grid to help balance electricity. “There was a significant shortage of generation, and that sudden drop created ripple effects across the country.

Unsere Presse verschwieg somit die Information über die wahren Ursachen: Es ist inzwischen so wenig Erzeugungsreserve vorhanden, dass bereits kleine Störungen zum Desaster führen. Und unsere Regierung erzwingt nun diesen Weg ebenfalls mit der Zwangsabschaltung der konventionellen Kraftwerke.

Doch wirklich vor Energiearmut gerettet werden muss Deutschland

Zurück zur glücklichen Rettung Frankreichs vor den – laut GRÜNer Ideologie – Wetter-instabilen Kernkraftwerken durch deutschen Ökostrom.
Die Ökoenergie konnte am besagten Rettungstag Deutschland nicht entfernt mit ausreichend Energie versorgen. Lediglich über einen kurzen Tageszeitraum gelangen ihr 45 % Energieanteil. Doch um 05 Uhr Früh waren es nur 9,1 % davon, nimmt man gnädig die nicht ausbaubaren und umstrittenen Erzeugungen mittels Wasserkraft und Biogas dazu, sind es trotzdem gerade einmal 18,5 % der benötigten.

Wer hat nun die riesige, fehlende Strommenge für Deutschland geliefert und gleich noch dazu das kleine Bisschen für Österreich und Frankreich? Alleine die verschrienen, konventionellen Kraftwerke.

Jeder stelle sich nun vor, der GRÜNE (und SPD, CDU, FDP, Linke, CSU) Traum ist endlich umgesetzt und diese Konventionellen Kraftwerke existieren nicht mehr. Und nun möchte jemand um 05 h seinen Frühstückskaffee kochen.
Kein Problem, die Lösung ist schon parat: Das intelligente Netz sagt ihm über die Kaffee-Koch App aufs Mobile: Strom ist für Sie erst gegen 12 h kontingentiert. Jemand war jedoch bereit, sein aktuelles Kontingent abzugeben. Wollen Sie dieses, müssen sie einen Aufpreis von xxx EUR pro W zuzahlen. Dieses Angebot gilt für die nächsten 10 Minuten. Bitte klicken Sie dazu auf den Zahlungs-Zuweisebutton.
Wenig später meldet ihm eine Firma: „haben Sie bemerkt, wie teuer Strom geworden ist? Wenn Sie immer ausreichend Strom haben wollen, empfehlen wir ihnen eine Solaranlage und einen Akkuspeicher für mindestens 14 Bedarfstage. Obwohl dieses Invest recht teuer erscheint, lohnt sie sich nach kurzer Zeit“.
Den von unseren Politikern versprochenen Rückfluss dieser stetig steigenden Kosten haben sich die „Armen“ wohl etwas anders vorgestellt.

Atomkraft ist keine klimataugliche Energie …

GRÜNE: [1]Innerhalb desselben Tages sank der Anteil der Atomkraft an der französischen Energieerzeugung von 75 auf 62 Prozent … Das zeigt: Atomkraft ist keine klimataugliche Technologie …
Atomkraft (in Frankreich) reduzierte sich bei Hitze wegen der zwangsläufigen – und deshalb begrenzt zulässigen – Aufheizung des rückgeführten Kühlwassers von 75 auf 62 %, also um 17,3 %. In den Augen der GRÜNEN ein technologisches Desaster, weshalb sie an Frankreich den öko-genialen Technologie-Vorschlag haben:
GRÜNE: [1]Frankreich sollte schnellstmöglich in den schnelleren Ausbau von erneuerbaren Energien investieren …

Was würde Frankreich mit diesem Vorschlag der GRÜNEN Energieexperten „gewinnen“:
Die angeblich so rettungsfreudige Ökoenergie von Deutschland hat sich am gleichen Tag von 32,73 auf 5,2 GW Leistungsangebot reduziert, oder positiv ausgedrückt, um diese Angebotsdifferenz erhöht. Nicht planbar und stark Wetter-zufällig, aber immerhin. Das sind minus 84 % Differenz innerhalb weniger Stunden. Und das nicht nur während einer Hitzeperiode, sondern täglich und rund übers Jahr. Die Differenz kann selbstverständlich auch geringer werden: Wenn mittags wenig Sonne scheint und dadurch das tägliche Nacht-Minimum einen höheren Anteil „gewinnt“ und gut: Der Wind weht manchmal auch bei uns etwas stärker. Dürfen die Nord-Süd-Trassen gegen alle Bürgerproteste doch noch im Ansatz wie erforderlich gebaut werden, verteilt sich die Windenergie sogar etwas.
Übrigens haben auch Solarpaneele einen erheblichen Temperatureinfluss: Bei 10 Grad Erhöhung verringert sich ihre Energieausbeute um ca. 4,8 % [2].

Öko(ge)wissen als Exportschlager

Mancher wird ahnen, in welchem Umfang Deutschland nach der bereits gestarteten, konsequenten Zerstörung aller bisher hier (noch) beheimateten, exporttauglichen Hoch-Technologien dann solches „Wissen“ exportieren wird.

Zumindest um das „Problem“ der zu hohen, deutschen Exportüberschüsse brauchen sich moderne Ökonomen mit Sicherheit dann keine Sorgen mehr zu machen.

Die „Freitagshüpfer“, welche nicht früh genug in den öffentlichen Dienst mit seiner risikolosen Vollversorgung „schlüpfen“ konnten, werden die Auswirkungen ihrer Forderungen im Erwerbsleben bald bemerken: Exorbitante Lebenshaltungskosten und mickrige Bezahlung ohne einen leidlich sicheren Arbeitsplatz. Wie man es von südlichen Ländern kennt, die bereits vorbildlich auf Exportüberschüsse „verzichten“.

Aber wie immer, Lösung ist in Sicht: In Städten wie Nürnberg werden Rikschafahrer gesucht, ein Beruf mit Zukunft. Und endlich kommen damit aus Asien einmal nicht nur Produkte (und Geld zum Aufkaufen unserer High-Tech Firmen), sondern wahrlich „erfahrene“ Ideen zu uns.
Die Nürnberger Öko-Variante hat nur einen kleinen Nachteil: Die Tretunterstützung läuft über Solarpaneele. Wenn die Sonne wenig scheint, wird der Job anstrengend. Dagegen wussten die Altvorderen aber bereits anzugehen: Man entlastet das Zugtier und läuft nebenher. Solch altes Wissen wird immer wertvoller werden …

Quellen

[1] the european 9.08.2019: Bei Hitzewellen: Erneuerbarer Strom ja bitte

[2] Solarpanel Moduldatenblatt: Temperaturkoeffizient -0,48%/K

[3] Länderdaten: Energiehaushalt in Frankreich

[4] WIKIPEDIA: Installierte Leistung

 




Merkel, das IPCC und die Geister, die sie rief

Das aberwitzige daran ist, dass die Politik zwar einen immer größeren Katalog von Forderungen an die Bevölkerung vorbringt, sich aber über den Weg zum eigentlichen Ziel – die angeblich angestrebte Verringerung der Treibhausgase – nur sehr vage äußert. Es gibt keinen Masterplan. So gibt es weder über die Umfänge noch über die Kosten oder über die Konsequenzen, die das Ganze haben soll, wirklich klare Konzepte, von Planungen ganz zu schweigen. Zwar sollen mehr Windanlagen und mehr Solarflächen gebaut werden, aber konkrete Zahlen sind Fehlanzeige. Das Gleiche gilt für den Netzausbau oder die Speichertechnologie, ohne die es ja eigentlich nicht gehen wird. Das Gerede von Batteriespeichern ist in diesem Zusammenhang geradezu lachhaft, da Batterien mit den erforderlichen Kapazitäten weder bezahlbar wären noch genügend Ressourcen dafür vorhanden sind. Zudem geht es nicht nur um die derzeitige Stromproduktion. Um den CO2-Ausstoß zurückzudrängen, müsste der Bedarf an Primärenergie weitgehend von fossil auf elektrisch umgestellt werden. Dabei handelt es sich um viel größere Bereiche wie Verkehrswesen, Heizung und Warmwasserbereitung oder industrielle thermische Prozesse von der Erzeugung von Metallen über die Betonherstellung bis zur chemischen und petrochemischen Industrie.

Bild 2. Aufschlüsselung der verschiedenen Primärenergielieferanten in Deutschland (Quelle: AGEB)

Was heißt das für Deutschland?

Maßstab ist der sogenannte Primärenergiebedarf Deutschlands, der im Jahr 2018 bei 12.963 Petajoules oder umgerechnet 3.600.833.333.333 kWh bzw. 3.600 Terawattstunden (TWh) lag. Die gesamte Stromproduktion Deutschlands lag 2018 bei 647 TWh, was rund 18 % des Primärenergiebedarfs ausmacht. Da der Anteil der sogenannten „Erneuerbaren Energien“ an der Stromerzeugung 2018 rund 35 % ausmachte, trug Strom aus „Erneuerbaren“ somit lediglich rund 6,3 % zum Gesamtenergiebedarf Deutschlands bei. Die entsprechende Statistik des BDEW weist zwar einen Anteil von 14 % aus, hieran darf man jedoch zweifeln.

Rechnen wir den derzeitigen Anteil der „Erneuerbaren“ von 14 % aus dem Primärenergiebedarf heraus und unterstellen wir, dass sich bei Verwendung von Strom Wirkungsgradverbesserungen von 50 % (eine ziemlich optimistische Annahme) erzielen lassen, so müssten wir unsere bisherige Stromproduktion wie folgt steigern:

D.h., wir müssten zur Aufrechterhaltung unsere Lebensstandards unsere Stromproduktion von den derzeitigen 647 TWh um 1548 TWh auf dann 2195 TWh steigern. Das ist ein Faktor 3,4! Und diese Menge an Strom muss, so die Absicht der Regierung, bei völliger „Klimaneutralität“ rein aus „erneuerbaren“ Quellen stammen.

Anforderungen an eine künftige „erneuerbare“ Stromerzeugung

Die künftige Stromerzeugung Deutschlands müsste sich dabei überwiegend auf zwei Quellen stützen: Wind und Solarerzeugung. Die Anteile von vernichteten Lebensmitteln (beschönigend Biomasse genannt), Wasser und Hausmüll sind nicht mehr steigerungsfähig. Die künftige Stromerzeugung müsste sich daher wie folgt zusammensetzen:

Die Windstromproduktion lag 2018 bei 107 TWh, während der Solarstromanteil 40 TWh erreichte, zusammen also 147 TWh. Insgesamt müsste also die Stromproduktion aus diesen beiden Quellen um etwa den Faktor 14 (!) gesteigert werden. Da die bisherigen Kosten der Energiewende einschließlich der versteckten Kosten für den bereits für die Zukunft zugesicherten Kapitaldienst, Infrastruktur (Leitungsbau, Netzgebühren sowie Stabilisierungskosten des Netzes) die halbe Billion € deutlich überschritten haben, kommen auf die deutsche Bevölkerung zusätzliche Kostenbelastungen von 7 Billionen € zu. Pro Bürger wären das rund 85.000,- €. In diesen Zahlen sind wichtige Zusatzkosten wie die für Transport und Speicherung sowie sonstige Infrastrukturmaßnahmen wie Backup-Kraftwerke noch nicht enthalten.

Was kommt auf den Bürger zu?

Rechnet man alles zusammen, so müsste jeder Bürger für eine „CO2-freie“ Bundesrepublik mindestens ca. 100.000,- € berappen. Für eine vierköpfige Familie wären das demnach 400.000,- €. Entscheidend ist in diesem Zusammenhang zunächst, über welchen Zeitraum diese Kosten abzustottern wären. Nach den Planungen der „Kohlekommission“ sollte das Ganze sich bis 2038 hinziehen. Die jährliche Belastung läge pro Kopf dann bei 5.600,- €, während eine vierköpfige Familie mit 22.400,- € pro Jahr dabei wäre. Verkürzte man diesen Termin, wie es von einigen Seiten gefordert wird, auf das Jahr 2030, so käme auf jeden Deutschen eine jährliche Belastung von 10.000,- € bzw. für die Familie eine solche von 40.000,- € zu. Ginge es nach den von Merkel und den Fernsehanstalten so hofierten „Fridays für Future“-Schulkindern (nebst Greta sowie ihren erwachsenen Souffleuren), so kämen pro Kopf der Bevölkerung sogar jährlich 20.000,- € bzw. für die Familie 80.000,- € zusammen. Davon ist in der öffentlichen Diskussion aber nirgends die Rede. Stattdessen wird uns die Hölle auf Erden prophezeit, wenn wir nicht schleunigst das Unterste zuoberst kehren und Deutschland in eine Industriebrache mit überwiegender Subsistenz-Biolandwirtschaft verwandeln. CDU und Grüne liefern sich einen Wettlauf darum, bei diesem Vorhaben den Spitzenplatz zu belegen. Die frühere „Partei des kleinen Mannes“ SPD versucht hingegen, sie mit allen möglichen unsinnigen Forderungen noch zu übertreffen. Und um allem die Krone aufzusetzen, ruft ein Verdi-Gewerkschaftsgrande sogar dazu auf, sich an den „Fridays for Future“-Demonstrationen zu beteiligen.

Wehe, wenn die Geister kommen

Für Merkel, aber auch für den „Weltklimarat“ IPCC steht mit der massiven Verschärfung der aktuellen Angst-Kampagne viel auf dem Spiel. Sie rufen Geister, die in den nächsten Wochen zusammen mit ihren fanatisierten Unterstützern in den Fernsehanstalten und Printmedien Himmel und Hölle in Bewegung setzen werden, um die „große Transformation“ Deutschlands soweit wie möglich zu beschleunigen. Dabei ist das gesamte Projekt sowohl technisch als auch wirtschaftlich vollkommener Irrsinn, wie beispielsweise im Buch „Strom ist nicht gleich Strom“ auch für Laien verständlich dargelegt wird. Egal in welchem Zeitrahmen man versucht, dieses Projekt durchzuführen, es kann nur in einem Fiasko größten Ausmaßes enden. Die gerufenen Geister werden deshalb gleich zweifach kommen: Zuerst, um möglichst großen Druck zu machen, weil man ihnen Angst um die Zukunft ihrer Kinder und Enkel gemacht hat. Und nach dem Fiasko mit verdoppelter Wucht, wenn dem Volk klargeworden ist, in welchem Ausmaß es betrogen wurde. Dann wird man sich an Goethes Gedicht vom Zauberlehrling erinnern:

Die ich rief, die Geister, werd ich nun nicht los“




Ruf nach Klima-Maßnahmen – niemals waren US-Doktoren so töricht

Hinter der Erklärung stehen die American Medical Association, die American Heart Association und das American College of Physicians. Diese und andere Organisationen erklärten den Klimawandel zur „größten Gefahr und Herausforderung für die öffentliche Gesundheit des 21. Jahrhunderts“.

In dem Statement wird proklamiert, dass „extreme Hitze, schwere Stürme und Überschwemmungen, Buschbrände das ganze Jahr über, Dürren und andere Ereignisse mit Bezug zu Klima“ verursacht werden durch die „Verbrennung fossiler Treibstoffe“. Weiter heißt es darin, dass wir diese Probleme lösen können, indem wir uns von Kohlenwasserstoff-Treibstoffen, Kohle, Öl und Erdgas abwenden und uns erneuerbarer Energie und Energieeffizienz zuwenden.

Vorige Woche war der größte Teil des US-Festlandes Schauplatz einer Hitzewelle. Etwa 85% der Bevölkerung waren täglichen Höchsttemperaturen über 32°C ausgesetzt, über 50% Werten über 35°C. Aber diese Werte liegen weit unter den von den jeweiligen Staaten gemessenen Rekord-Höchstwerten der Temperatur vergangener Jahrzehnte.

Der Historie zufolge war das wärmste Jahrzehnt in den USA die 1930-er Jahre, lange bevor die Industrie größere Mengen Kohlendioxid emittiert hatte. Der NOAA zufolge traten 23 der jeweiligen Rekord-Höchstwerte in den einzelnen US-Staaten während der 1930-er Jahre auf. 36 der 50 Rekord-Höchstwerte pro Staat waren vor 1960 aufgetreten:

Abbildung 1: US-Temperaturrekorde

Vorige Woche erreichte die Temperatur in Iowa, Illinois, Indiana, Ohio und Pennsylvania Höchstwerte bei etwa 38°C. Aber auch diese Werte lagen deutlich unter den höchsten Werten jemals. Im Einzelnen: Iowa 48°C im Jahre 1934, Illinois 47°C im Jahre 1954, Indiana 47°C im Jahre 1936, Ohio 45°C im Jahre 1934, Pennsylvania 44°C im Jahre 1936.

Dieses Jahr war auch ein Jahr der Überschwemmungen im Mississippi-Tal. Unglücklicherweise plappern unsere medizinischen Profis jetzt den Gedanken nach, dass Überschwemmungen und Dürren extremer ausfallen als während vergangener Jahre. Aber die NOAA hat sehr gute Aufzeichnungen aus dem vorigen Jahrhundert aus dem Teil der kontinentalen USA, die entweder sehr nass oder sehr trocken sind. Bestimmt wird das nach dem sog. Palmer Drought Index. Dieser Index zeigt während der letzten Jahrzehnte keinen signifikanten Trend zunehmender Dürren oder Überschwemmungen:

Abbildung 2: Kontinentale USA: Nass und trocken

„Schwere Stürme“ sind in dem Gesundheits-Statement gelistet als eine der Folgen der vom Menschen verursachten globalen Erwärmung. Hurrikan Barry brachte Anfang des Monats in einigen Landstrichen von Louisiana bis zu 380 l/m² Regen. Es hieß, dass dieser Sturm infolge menschlicher Emissionen stärker gewesen sei.

Aber es gibt keinerlei Belege dafür, dass Stürme stärker und/oder häufiger auftreten. Neun der 13 stärksten, auf das US-Festland übergetretene Hurrikane traten vor dem Jahr 1965 auf. Seit dem Jahr 1900 blieb die Anzahl der auf das Festland übergreifenden Hurrikane flach, wenn nicht sogar mit einem abnehmenden Trend. Die NOAA-Daten zeigen auch, dass die Anzahl starker Tornados seit den 1970-er Jahren rückläufig ist:

Abbildung 3: Anzahl der auf das US-Festland übergetretenen Hurrikane

Die Feuersbrünste in Kalifornien im vorigen Jahr wurden der vom Menschen verursachten globalen Erwärmung in die Schuhe geschoben. Gesundheitsexperten scheinen jetzt zu glauben, dass Buschfeuer „das ganze Jahr über“ auftreten und verursacht werden von Emissionen unserer Industrie und unserer Autos.

Aber die Aussage von Dr. Judith Curry bei der letzten Anhörung vor dem Kongress verwirft diese Folgerung. Dr. Curry legte Beweise dafür vor, dass die in den USA verbrannte Fläche vor dem Jahr 1930 mindestens so groß war wie heute. Sie verwies außerdem auf eine Studie, die zeigte, dass die Prozentzahl der in den USA gemeldeten Brände vor 1900 viel größer war, bevor Techniken zur Unterdrückung von Feuern in Gebrauch kamen.

Anstatt also eine Gesundheitskrise darzustellen, zeigen viele Belege, dass moderat höhere Temperaturen gut sind für die Menschen. Die Grippe-Saison in den USA erstreckt sich etwa von November bis März, also während der kalten Monate. Auf der Südhemisphäre erstreckt sich die Saison über die Monate Juni bis September. Bei kaltem Wetter erkranken viel mehr Menschen an Grippe als bei warmem Wetter.

Viele begutachtete Studien zeigen, dass die Anzahl von Sterbefällen im Winter höher ist als im Sommer. Dr. William Keating untersuchte Todesfälle mit Bezug zu Temperatur für Menschen im Alter zwischen 65 und 74 Jahre in sechs europäischen Ländern. Er kam zu dem Ergebnis, dass Todesfälle im Zusammenhang mit niedrigen Temperaturen neun mal höher lagen als bei höheren Temperaturen. Diese Belege zeigen, dass falls sich die Erde wirklich erwärmt, die Todesfälle mit Bezug zur Temperatur insgesamt abnehmen werden.

Der Klima-Alarm seitens Gesundheitsexperten entbehrt jeden gesunden Menschenverstandes. Daten der NOAA, der NASA und der Climate Research Unit an der East Anglia University in UK zufolge ist die globale Temperatur während der letzten 135 Jahre gerade mal um 1°C gestiegen.

Die mittlere Temperatur in Norfolk, Virginia liegen um 5,8°C über derjenigen in Chicago. In Miami liegt sie sogar um über 15°C über dem Wert von Chicago. Stirbt man allgemein durch die Hitze in Norfolk und Miami?

Und warum ziehen sich die meisten US-Bürger nach ihrem Eintritt in das Rentenalter nach Florida, Texas und Arizona zurück – und nicht nach North Dakota, Maine und Alaska? Wissen sie nichts von den Aussagen unserer medizinischen Experten, dass warme Klimate gefährlich sind?

Der Glaube, dass das Auswechseln von Glühlampen, der Betrieb von Elektrofahrzeugen und die Aufstellung von Windturbinen die menschliche Gesundheit verbessern können, ist genauso mittelalterlich wie der Glaube, dass Aderlass Krankheiten heilen kann.

Link: https://www.cfact.org/2019/07/24/climate-call-to-action-never-have-u-s-doctors-been-so-foolish/

Übersetzt von Chris Frey EIKE




Könnten kältere Jahre bevor stehen?

Dauern die solaren Minima länger, ist die Abkühlung der Sonne von größerer Bedeutung, und auf der Erde kann es zu einer „Eiszeit“ kommen. Die jüngste war zwischen den Jahren 1300 und 1800 aufgetreten; man hat diesem Zeitraum die Bezeichnung „Kleine Eiszeit“ verliehen. Unglücklicherweise fiel gerade in diese Zeit auch eine speziellen Anordnung unseres Planetensystems, was im Zeitraum 1645 bis 1715 zum Maunder Minimum führte, wobei noch weniger Sonnenwärme die Erde erreichte. Dies führte zu katastrophalen Folgen hinsichtlich Ernteausfälle, Krankheiten, Hunger und Arbeitslosigkeit, was einen allgemeinen Zusammenbruch der europäischen Gesellschaft nach sich zog.

Die besten Solarphysiker und deren mathematischen Modell-Simulationen projizieren innerhalb der nächsten 20 Jahre ein besonders tiefes solares Minimum. Während sich die heutigen offiziellen Diskussionen um die Erwärmung der Erde um ein paar Grad innerhalb der nächsten 100 Jahre geht, wären wir viel besser beraten, die Folgen einer kälteren Periode während der nächsten Jahrzehnte abzumildern.

Anders als der unkluge Wunsch nach Eliminierung fossiler Treibstoffe zur Reduktion von Kohlenstoff-Emissionen, von denen manch einer glaubt, es wäre der einzige Klimatreiber überhaupt, ist die Vorbereitung auf kälteres Wetter weitaus weniger kostspielig und dramatisch.

Zu den Bereichen, in denen eine effektive Abschwächung greifen kann unter der Voraussetzung von genügend Zeit und Ressourcen, gehören unter anderem (sind darauf aber nicht beschränkt):

Erzeugung von Nahrungsmitteln

Transportwesen

Bewässerungssysteme

Stromnetze

Ein neues Buch zu diesem Thema ICE AGE 2025 behandelt diese Themen im Detail.

Stichwort Erzeugung von Nahrungsmitteln: kaum haben wir die Vorteile genetischer Veränderungen erreicht, um Ernten unter heißen und trockenen Bedingungen stabiler zu machen, sollten wir unser Wissen jetzt dazu nutzen, Getreideanbau unter kälteren Bedingungen zu stabilisieren.

Stichwort Transportwesen: Die gegenwärtigen Verfahren in den USA, die Straßen im Winter offen zu halten, sind unzureichend für das bevorstehende kalte Wetter, sie können aber verbessert werden. Auch sind die meisten Wasserversorgungs-Systeme in US-Städten schlecht gerüstet für lang anhaltenden Frost. Aber sie können aufgerüstet werden auf die Art und Weise, wie es in nördlichen Gebieten der Fall ist.

Energie dürfte kein Problem sein, solange man die Rufe, mit dem Verbrennen unserer reichlich vorhandenen fossilen Treibstoffe aufzuhören, ignoriert.

Wir befinden uns derzeit in einem solaren Minimum. Es könnte der erste Schritt auf dem Weg zu einer kälteren Erde für längere Zeit sein. Verschiedene Modelle projizieren unterschiedliche Zeiten des Beginns, aber die meisten Sonnenexperten sind der Ansicht, dass die Kaltzeit unmittelbar bevorsteht.

Während der Kleinen Eiszeit der Vergangenheit war die Gesellschaft von Landwirtschaft geprägt. Die industrielle Revolution war noch nicht im Gange. Für die heutigen urbanisierte Hochtechnologie-Gesellschaft können die Auswirkungen solarer Minima, welche zu „kleinen“ Eiszeiten führen können, bzgl. der Kälte schwieriger zu bewältigen sein. Transportwesen, Strom und Nahrungsmittel sind heute komplexer, gehen aber einher mit großen technologischen Fortschritten.

Während der Kleinen Eiszeit und besonders während des Maunder-Minimums war es nicht nur kälter, was Gesellschaft und Landwirtschaft ins Chaos stürzte, sondern es kam auch sehr häufig zu Extremwetter.

Einige Ackerpflanzen konnten zwar die niedrigeren Temperaturen und kürzere Wachstumszeiten überleben, wurden dann aber zerstört durch Schneestürme, Eis und Frost. Die heutigen Wettervorhersagen jedoch erlauben immer bessere rechtzeitige Warnungen, was Abschwächungs-Programme weit effektiver macht.

Ein interessanter Aspekt potentieller Abkühlung ist das Auftreten sog. Leuchtender Nachtwolken über weiten Gebieten der nördlichen USA (siehe Bild oben).

Die besten bisher entwickelten Solarmodelle projizieren in der Tat ein Großes Solares Minimum. Valentina Zharkova, eine Mathematik-Professorin an der Northumbria University in UK stellte ein Modell vor, welches weit genauer die Eigenschaften solarer Zyklen prognostizieren kann als es bisher möglich war.

Ihr Modell war bzgl. kurzfristiger Projektionen sehr genau, und sie ist der Ansicht, dass die Erde während der nächsten etwa 15 Jahre auf ein Super Grand Solar Minimum zusteuert (wobei es richtig kalt werden könnte).

Dafür, dass wir auf eine kältere Zeit auf der Erde zugehen, was so ziemlich das Gegenteil des Mantras der globalen Erwärmung ist, gibt es jedenfalls viel stärkere Belege als für einen Erwärmungstrend.

Die Folgen großer solarer Minima sind weitaus komplexer als dass es einfach nur kälter ist. In Kombination sind diese Auswirkungen eine beachtliche Herausforderung, die angemessener Vorbereitungen bedarf.

———————————-

The Author: Dr. Jay Lehr is the author of more than 1,000 magazine and journal articles and 36 books. He is an internationally renowned scientist, author and speaker who has testified before Congress on dozens of occasions on environmental issues and consulted with nearly every agency of the national government, as well as many foreign countries. He is a leading authority on groundwater hydrology.

Link: https://www.cfact.org/2019/08/07/could-cooler-years-be-coming/

Übersetzt von Chris Frey EIKE




Wasser­knappheit? Wie die F.A.Z. ihren Ruf selbst zerstört

Noch fließt Wasser aus dem Hahn“ lautete die Überschrift eines „F+“-Artikels der FAZ-Journalistin Mechthild Harting, der am 07.08.2019 an prominenter Stelle in der Online-Ausgabe der FAZ erschien. Wobei die Dachzeile „Klimawandel“ dem Leser sofort suggeriert, dass es sich auch hierbei schwerpunktmäßig um eine Folge des Klimawandels handelt. Denn dieser, so wird der FAZ-Redakteur Joachim Müller-Jung nicht müde zu betonen, bedroht nicht nur unsere Existenz, sondern sogar unseren Planeten als Ganzes.

Gefährdet der Klimawandel die Wasserversorgung der Metropolregion?

Liest man in die als „Lockspeise“ freigegebenen Zeilen hinein, so steht dort allerdings etwas ganz anderes: Grund für die befürchtete Wasserknappheit sind nämlich offenkundig andere Ursachen. Die Rhein-Main-Region wächst und damit eben auch ihr Bedarf an Wasser. Doch schon bevor das erwähnt wird, beginnt der zweite Satz schon wieder mit den Worten: „Mit Blick auf den Klimawandel…“ Erst danach wird darauf hingewiesen, dass die Zahl der Einwohner allein in den letzten fünf Jahren um rund 130.000 gewachsen ist und auch für die nächsten Jahre kräftiger Zuzug erwartet wird. Wenn dann noch hintereinander zwei trockene Sommer drohen, müsse man sich Sorgen um die Trinkwasserversorgung machen.

Oder liegt es eher an der Übernutzung der Wasservorräte?

Weiter unten erfährt man dann, dass die Trinkwasserversorgung der Region letztmals in den 90er Jahren an ihre Grenzen stieß, als starkes Bevölkerungswachstum und gleichzeitig mehrere trockene Sommer zusammenfielen. Seither war alles im Lot, selbst im extrem niederschlagsarmen Jahr 2003, als in Deutschland nur knapp über 600 mm/a Niederschlag fielen (statt der im Mittel üblichen 800 mm/a). Die jetzt geäußerten Befürchtungen haben daher damit zu tun, dass die Bevölkerung und damit ihr Verbrauch stark zugelegt haben. Dennoch wurde in diesem Zusammenhang der Klimawandel als Ursache für Wasserverknappung in den Vordergrund gerückt.

Die weitere Lektüre hinter der Bezahlschranke kann man sich nach dieser Einleitung schenken. Getreu der üblichen journalistischen Vorgehensweise, dass das Wesentliche eines Beitrags ganz vorne steht und man die hinteren Abschnitte je nach Platzbedarf getrost „abschneiden“ kann, braucht man sich den Rest nicht mehr anzutun und kann dadurch Geld sparen. Konfrontieren wir einfach das offensichtliche Hauptargument „Klimawandel“ mit den nachprüfbaren Fakten.

Der Klimatrend bringt….mehr Regen und mehr Wasser!

Die FAZ-Autorin Mechthild Harting ist offenkundig von der Korrektheit jedweder Klage, die von interessierter Seite mit dem Argument „Folge des Klimawandels“ vorgetragen wird, so überzeugt, dass sie die Pflicht jedes Journalisten – die sorgfältige, kritische und erforderlichenfalls investigative Überprüfung der Fakten – nicht mehr wahrnimmt. Hätte sie sich beispielsweise beim Umweltbundesamt umgesehen, so hätte sie sofort feststellen können, dass die Niederschläge in Deutschland in den Jahren seit 1881 keinesfalls zurückgegangen sind. Im Gegenteil, sie haben sogar deutlich zugelegt, wie die Trendlinie in Bild 2 zeigt.

Bild 2. Seit 1881 hat die durchschnittliche jährliche Niederschlagsmenge um rund 9 % zugenommen und liegt jetzt bei etwa 800 mm/a (Grafik: UBA)

Ein einziger Blick hätte also genügt, um das „Klimawandel“-Argument als vorgeschoben zu erkennen. Das Klima wird in Deutschland seit 138 Jahren immer regnerischer. Was wir mit dem trockenen Jahr 2018 und den beiden Hitzewellen 2019 aktuell haben, ist dagegen Wetter. Und Wetter ist nun einmal instabil, chaotisch und nicht langfristig vorhersehbar. Das hat man schon in biblischen Zeiten erkannt, nachzulesen im Gleichnis von den sieben fetten und den sieben mageren Jahren. Klima ist dagegen der langfristige statistische Trend über Zeiträume von mindestens 30 Jahren. Beides sollte nicht verwechselt werden. Ist das jetzt nur ein nebensächlicher Lapsus der Redaktion oder steckt mehr dahinter?

Auf dem Weg zum „Neuen Deutschland“ der Rhein-Main-Region?

Wer die FAZ regelmäßig liest, kann erkennen, dass sich in der Redaktion seit Jahren schleichend eine Tendenz ausgebreitet hat, die man als Meinungsjournalismus bezeichnen kann. Auch im „Neuen Deutschland“ der DDR durften in keinem nennenswerten Beitrag Hinweise auf die Überlegenheit und die Erfolge der kommunistischen Staatsdoktrin fehlen. Fakten, die diesem Weltbild nicht entsprachen, wurden entweder negiert oder so hingebogen, dass es zur vorgefassten Meinung passte.

Mit Blick auf das Klima ist bei der FAZ die gleiche Art von Meinungsjournalismus zu beobachten. Die Klimaentwicklung wird unter Wissenschaftlern durchaus unterschiedlich beurteilt, seitens der Redaktion werden aber fast nur solche Aussagen aufgegriffen, die in das aktuell vorherrschende Stimmungsbild passen. Man kann mit Fug und Recht von „Klima-Populismus“ der FAZ sprechen. Dass die Gegenargumente von teils namhaften Wissenschaftlern kommen, wird ignoriert. Stattdessen kommen sogar „Fridays for Future“ Youngster als Artikelautoren zu Wort.

Die anhand des hier besprochenen Artikels aufgezeigte ideologisch verfälschte Darstellung ist deshalb kein Lapsus, sondern hat Methode. Sie entspricht einer politisch-ideologischen Agenda der Blattmacher, die ihre Journalisten in dieser Richtung „motivieren“. Anders ausgedrückt: Die FAZ wandelt sich zusehends zu einem Agitprop-Organ der Verkünder der Klimaapokalypse. Und stuft so entstandene Beiträge zugleich als so wertvoll ein, dass man dafür eine Bezahlung erwartet.

Fred F. Mueller




Klima: Über welche Temperatur reden wir eigentlich?

1. Messfehler

Temperaturen wurden seit etwa 250 Jahren mit Thermometern  (darunter solche im englisch sprachigen Raum, die Max und Min Temperaturen anzeigen) gemessen und seit einigen Jahrzehnten mittels elektronischer Sensoren oder Satelliten. Hinsichtlich noch älterer Daten muss man sich auf „Proxys“ verlassen (Baumringe, Stomata oder andere geologische Belege, welche eine Kalibrierung bzgl. Zeit und Amplitude benötigen, historische Chroniken oder Almanache usw.). Jedes Verfahren weist einen gewissen experimentellen Fehler auf. Bei einem Thermometer sind es etwa 0,1°C, bei Proxys noch viel mehr. Springt man von einem Verfahren zu einem anderen (z. B. von Thermometer-Messungen zu elektronischen Sensoren oder von elektronischen Sensoren zu Satellitendaten), müssen die Daten kalibriert und adjustiert werden, was in den Aufzeichnungen nicht immer sauber dokumentiert wird. Wie in dieser Studie ebenfalls gezeigt wird, ist die Länge des Zeitfensters für Messungen von ultimativer Bedeutung, um Schlussfolgerungen zu ziehen hinsichtlich eines möglichen gemessenen Trends in Klimadaten. Es müssen gewisse Kompromisse eingegangen werden zwischen der Genauigkeit der Daten und deren Repräsentativität.

2. Zeitliche Mittelungs-Fehler

Falls jemand ausschließlich Thermometermessungen für „zuverlässig“ hält, muss man täglich, wöchentlich, monatlich und jährlich definieren, was die Mitteltemperatur ist. Aber vor der Einführung elektronischer Sensoren, welche eine kontinuierliche Registrierung der Daten gestatteten, wurden diese Messungen von Hand, punktuell und einige Male über den Tag verteilt durchgeführt. Der Algorithmus zur Errechnung der täglichen Mitteltemperatur war Gegenstand von Änderungen von Land zu Land und mit der Zeit, und zwar auf eine Art und Weise, die in den Datensätzen nicht perfekt dokumentiert ist und wobei einige Fehler enthalten sind (Limburg, 2014). Auch folgte die Temperatur saisonalen Zyklen, verbunden mit der Sonnenaktivität und der lokalen Exposition in dieser Hinsicht. Das bedeutet, dass wenn man monatliche Daten mittelt, man Temperaturen vergleicht (von Beginn bis zum Ende des Monats) welche mit unterschiedlichen Punkten im saisonalen Zyklus korrespondieren. Und schließlich, wie jeder Gärtner weiß, haben auch die Mondzyklen einen gewissen messbaren Einfluss auf die Temperatur (ein 14-Tage-Zyklus ist in lokalen Temperaturdaten offensichtlich, was korrespondiert mit der Harmonic 2 des Mondes Frank, 2010). Es gibt etwa 28 Mondzyklen über jeweils 28 Tage innerhalb eines solaren Jahres von 365 Tagen, aber das solare Jahr ist in 12 Monate unterteilt, was einige Verzerrungen und falsche Trends induziert (Masson, 2018).

3. Räumliche Mittelung

Zuallererst, das IPCC betrachtet global gemittelte Temperaturen über den gesamten Globus, trotz der Tatsache, dass die Temperatur eine intensive Variable ist, und zwar von einer Kategorie von Variablen, die nur eine lokale thermodynamische Bedeutung haben, und trotz der Tatsache, dass es auf der Erde mehrere gut definierte Klimazonen gibt.

Die verwendeten Daten stammen von Aufzeichnungen meteorologischer Stationen und sollen repräsentativ sein für ein Gebiet um jede der Stationen. Das Gebiet soll alle Punkte umfassen, die näher an der jeweiligen Station als an irgendeiner anderen Station liegen (Voronoi-Algorithmus). Da die Stationen nicht gleichmäßig verteilt sind und da deren Anzahl erheblich mit der Zeit geschwankt hat, sind mit diesem Verfahren der räumlichen Mittelung „Algorithmus-Fehler“ verbunden.

Voronoi Diagramm

„In der Mathematik ist ein Voronoi Diagramm die Partitionierung einer Fläche in Regionen auf der Grundlage der Distanz zu Punkten in einem spezifischen Untergebiet der Fläche. Dieser Satz von Punkten (mit den Bezeichnungen seeds, sites oder generators) ist zuvor spezifiziert, und für jedes seed gibt es eine korrespondierende Region, die alle Punkte enthält, welche näher an diesem seed liegen als an jedem anderen. Diese Regionen nennt man Voronoi-Zellen (Quelle).

Da sich die Anzahl der seed-Punkte ändert ändert sich auch Größe, Anzahl und Aussehen der korrespondierenden Zellen (Abbildungen 1 und 2):

Abbildungen 1 und 2: Beispiel eines Voronoi-Diagramms, in Abb. 2 mit einer reduzierten Anzahl von seeds (konstruiert mit http://alexbeutel.com/webgl/voronoi.html).

In der Klimatologie sind die seed-Punkte die meteorologischen Stationen, und deren Anzahl hat sich mit der Zeit signifikant reduziert. Dadurch änderten sich Anzahl und Größe der korrespondierenden Zellen (siehe die Abbildungen 3, 4 und 5).

Abbildungen 3 und 4: Anzahl der Stationen nach der Zeit (links) und Ort vs. Zeit (rechts). Die Daten in Abb. 3 stammen von der GISS Surface Temperature Analysis (GISTEM v4). Quelle: https://data.giss.nasa.gov/gistemp/station_data_v4_globe/

Abbildung 5: Entwicklung von Landstationen und globaler Temperatur. Ab dem Jahr 1990 sind 1000 in kühleren ländlichen Gebieten stehende meteorologische Stationen (z. B. in Sibirien und Nordkanada) ausgesondert worden (Quelle: ftp://ftp.ncdc.noaa.gov/pub/data:ghcn/v2/v2.temperature.readme). Man beachte, dass Abbildung 3 auf GHCNv4 (Juni 2019) beruht und Abbildung 5 auf GHCNv2 (vor 2011). Alle Stationen wurden re-analysiert, und das ist auch der Grund für die Unterschiede in den beiden Abbildungen.

Mitteltemperatur

Die Mitteltemperatur (genauer deren Anomalie, siehe weiter unten) wird berechnet durch Aufsummierung der individuellen Daten von unterschiedlichen Stationen, wobei jeder Datenpunkt gewichtet wird proportional zu dessen korrespondierender Zelle (gewichtetes Mittel).

Da sich die Größen der Zellen mit der Zeit geändert haben, hat sich auch die Wichtung der seed-Punkte geändert. Dies induziert einen Bias in der Berechnung des globalen Wertes der Mitteltemperatur.

4. Der städtische Wärmeinseleffekt UHI

Außerdem sind viele ursprünglich in ländlicher Umgebung aufgestellten Messpunkte in zwischen Schauplatz einer progressiven Verstädterung gewesen, was zum „städtischen Wärmeinsel“-Effekt führte, welcher die gemessenen Temperaturwerte künstlich beeinflusste (Abbildungen 6 und 7)

Abbildungen 6 und 7: Gründe und Illustration des UHI

Es ist also unabdingbar bei Landstationen, dass jedwede nicht-klimatischen Temperatursprünge wie der UHI eliminiert werden. Derartige Sprünge können auch induziert werden durch Änderung des Aufstellortes der Stationen oder durch eine Aktualisierung der Instrumentierung. In den adjustierten Daten von GISTEMP v4 sind die Auswirkungen solcher nicht-klimatischen Einflüsse eliminiert wo immer möglich. Ursprünglich wurden nur dokumentierte Fälle adjustiert. Das gegenwärtig von NOAA/NCEI angewendete Verfahren jedoch appliziert ein automatisiertes System auf der Grundlage eines systematischen Vergleichs mit benachbarten Stationen. Damit soll dokumentierten und nicht dokumentierten Fluktuationen Rechnung getragen werden, die nicht direkt Bezug zum Klimawandel haben. Die Verfahren nebst deren Evaluierungen sind Gegenstand vieler Veröffentlichungen.

5. Wassertemperatur

Und was ist mit der Temperatur über den Ozeanen (welche etwa 70% der Erdoberfläche bedecken)? Bis vor Kurzem wurden diese Temperaturen kaum gemessen, kamen sie doch von Schiffen, die eine begrenzte Anzahl kommerzieller Seewege befuhren.

Abbildung 8: Meeresoberflächentemperatur (SST)-Messungen nebst deren (Nicht-)Repräsentativität

In jüngerer Zeit wurden ARGO-Bojen in allen Ozeanen ausgebracht, was eine repräsentativere räumliche Abdeckung dieser Daten ermöglichte.

6. Temperaturanomalien

Zweitens, zu jedem gegebenen Zeitpunkt kann die Temperatur auf der Erde um bis zu 100°C variieren (zwischen Messpunkten in polaren bzw. tropischen Regionen). Um diesem Problem zu begegnen, bezieht sich das IPCC nicht auf absolute Temperaturwerte, sondern auf etwas, das man „Anomalien der Temperatur“ nennt. Dafür berechnet man zunächst die mittlere Temperatur über einen festgelegten Zeitraum von 30 Jahren: 1931 bis 1960, 1961 bis 1990. Die nächste Periode wird der Zeitraum 1991 bis 2020 sein. Dann wird jede jährliche Temperatur mit der mittleren Temperatur der nächstgelegenen zeitlichen Periode verglichen. Gegenwärtig und bis zum Jahr 2012 ist die Anomalie die Differenz zwischen der Temperatur und dem Mittelwert des Zeitraumes 1961 bis 1990.

Dieses Verfahren fußt auf der impliziten Hypothese, dass die „natürliche“ Temperatur konstant bleibt und dass jedweder erkannte Trend anthropogenen Aktivitäten geschuldet ist. Aber selbst dann würde man erwarten, dass einige Adjustierungen vorgenommen werden, wenn man von einer Referenzperiode auf eine andere übergeht. Das berührt die Kompensation eines eventuellen UHI oder die Änderung der Anzahl von Stationen – und wir haben beide als Quellen von Fehlern und Verzerrungen ausgemacht.

Aber das Schlüsselproblem ist tatsächlich der Umstand, dass die Temperaturaufzeichnungen Gegenstand lokaler natürlicher, polyzyklischer Fluktuationen sind, die nicht genau periodisch und nicht synchronisiert sind. Die Tatsache, dass der artige Fluktuationen nicht genau periodisch sind, macht es mathematisch unmöglich, dass man die Daten trendbereinigen kann mittels Subtraktion eines Sinusoids, wie es beispielsweise allgemein üblich ist bei der Eliminierung jahreszeitlicher Effekte aus den Daten.

Die Länge dieser Zyklen variiert von einem Tag bis zu jährlichen, dekadischen, hundert- oder tausendjährigen Komponenten und über zehntausende von Jahren hinaus (Milankovitch-Zyklen).

Von besonderem Interesse für unsere Diskussion sind dekadische Zyklen, weil deren Präsenz dreifach Konsequenzen hat:

Erstens, da sie wegen ihrer Aperiodizität nicht direkt trendbereinigt werden können, beeinflussen oder verstärken sie eventuelle anthropogene Effekte, welche in den Anomalien zutage treten.

Zweitens, die Zyklen induzieren Verzerrungen und falsche Anomalien bei der Berechnung der mittleren Temperatur des Referenz-Zeitraumes, wie die folgende Abbildung zeigt (nach Masson):

Abbildung 9: Anomalien und periodische Signale des Zeitraumes, der vergleichbar ist mit der Länge des Referenz-Zeitraumes.

Kommentar zu Abbildung 9:

Die Abbildung zeigt die Probleme zur Festlegung einer Anomalie, wenn das Signal ein periodisches Signal mit einer Länge vergleichbar mit der Länge des Referenz-Zeitraumes aufweist, der zu Berechnung dieser Anomalie herangezogen wird. Zur Vereinfachung denke man sich ein Sinusoid mit einer Periode gleich 180 Jahre (eine allgemein in Klima-bezogenen Signalen erkannte Periodizität). Folglich ist 360° = 180 Jahre und 60° = 30 Jahre (also die Länge der vom IPCC herangezogenen Referenzperioden zur Berechnung der Anomalien). Für unseren Zweck werden drei Referenzperioden mit jeweils 60° (30 Jahre) entlang des Sinusoids betrachtet (die roten horizontalen Linien markieren die Referenzen 1, 2 und 3). Auf der rechten Seite der Abbildung sind die korrespondierenden Anomalien dargestellt (Messung über die nächsten 30 Jahre minus dem Mittelwert über die Referenzperiode). Man erkennt offensichtlich, dass die Anomalien unterschiedliche Trends zeigen. Ebenfalls offensichtlich tritt hervor, dass alle diese Trends ein Fake sind, weil das reale Signal ein Sinusoid des Mittelwertes insgesamt gleich Null ist. Mit anderen Worten, es gibt gar keinen Trend, sondern nur ein periodisches Verhalten.

Der dritte fundamentale Schwachpunkt, wie das IPCC mit den Temperaturdaten umgeht, betrifft die Entscheidung, sich ausschließlich auf lineare Regressions-Trendlinien zu stützen, trotz der Tatsache, dass jeder Daten-Wissenschaftler weiß, dass man zumindest ein Zeitfenster berücksichtigen muss, das mehr als 5 mal über die Periode einer zyklischen Komponente in den Daten hinausgeht, um „border effects“ zu vermeiden. Pech für das IPCC: die meisten Klimadaten zeigen signifikante zyklische Komponenten mit (angenähert) Perioden von 11, 60 und 180 Jahren, während sie andererseits ein 30-Jahre-Fentser heranziehen, um ihre Anomalien zu berechnen.

Und so erzeugt das IPCC eine künstliche „Beschleunigung der globalen Erwärmung“, weil es kurzfristige lineare Trends aus Daten berechnet, welche eine zyklische Signatur aufweisen. Mittels Abbildung 10, entnommen FAQ 3.1 aus Kapitel 3 des IPCC-AR 4 (2007) erklärt das IPCC: „Man beachte, dass sich die Steigung über kürzere Perioden vergrößert, was auf eine beschleunigte Erwärmung hinweist“.

Abbildung 10: Fake-Schlussfolgerungen des IPCC

Die folgende Graphik (Abbildung 11) illustriert das Ganze:

Abbildung 11: Globale Temperaturen im Vergleich zur mittleren globalen Temperatur über den Zeitraum 1901 bis 2000

Kommentar zu Abbildung 11

Die Graphik zeigt die mittlere jährliche globale Temperatur seit dem Jahr 1880, aber nicht verglichen mit einer 30-jährigen Referenzperiode (wie es bei der Berechnung von Anomalien üblich ist), sondern im Vergleich zum langfristigen Mittel im Zeitraum 1901 bis 2000. Die Null-Linie repräsentiert das langfristige Mittel für den gesamten Planeten, die Balken zeigen die globalen (aber langfristigen) „Anomalien“ über oder unter dem langfristigen Mittelwert mit der Zeit. Der behauptete lineare Trend im linken Teil der Abbildung ist (mehr als wahrscheinlich) ebenso wie der Trend im rechten Teil der Abbildung nichts weiter als der steigende Ast eines Sinusoids von 180 Jahren. Dies ist auch ein anderer Weg (der richtige und einfachste?), den „Stillstand“ zu erklären, welcher während der letzten 20 Jahre beobachtet worden ist. Der „Stillstand“ korrespondiert mit dem Maximum des Sinusoids, und als Konsequenz kann man eine globale Abkühlungsperiode während der nächsten Jahre erwarten.

7. Lineare Trendlinien und Daten, die eine zyklische Signatur aufweisen

Schließlich illustrieren die folgenden Graphiken (Abbildungen 12, 13 und 14) von Masson den „border effect“, der weiter oben schon einmal für einen schematischen Fall erwähnt worden ist. Sie zeigen die potentiellen Fehler, die man bei der Anwendung linearer Regressions-Verfahren macht, wenn Daten eine zyklische Komponente aufweisen mit einer (pseudo-)Periode von einer Länge, die vergleichbar ist mit dem betrachteten Zeitfenster. Das Sinusoid bleibt genau gleich (und zeigt keinen Trend), aber falls man die lineare Regression berechnet (mittels des Verfahrens kleinster Quadrate) über eine Periode des Sinusoids, wird eine FAKE-Trendlinie erzeugt, dessen Steigung abhängig ist von der Anfangsphase des betrachteten Zeitfensters.

Abbildungen 12,13 und 14: Lineare Regressions-Linie über eine einzelne Periode eines Sinusoids.

Regressions-Linie für ein Sinusoid

Um das Problem im Zusammenhang mit dem „border effect“ zu illustrieren, wenn man für ein Sinusoid eine Regressions-Linie zeigt, wollen wir ein einfaches Sinusoid heranziehen und die Regressions-Linie über ein, zwei, fünf, … X Zyklen berechnen (Abbildungen 15, 16 und 17).

Das Sinusoid ist stationär, die wahre Regressions-Linie verläuft horizontal (Steigung = Null).

Nimmt man eine Initial-Phase von 180° (um eine Regressions-Linie mit positiver Steigung zu erzeugen), wollen wir feststellen, wie sich die Steigung der Regressions-Linie in Abhängigkeit der Anzahl von Perioden ändert:

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Die korrespondierende Regressions-Gleichung ist in jeder Graphik genannt. In dieser Gleichung ergibt der Koeffizient von x die Steigung der „Fake“-Regressions-Linie. Der Wert dieser Steigung ändert sich mit der Anzahl der Perioden, wie in Abbildung 18 gezeigt. Als Faustregel nennen Daten-Wissenschaftler eine Mindestzahl von 6 Perioden, die betrachtet werden müssen.

Abbildung 18: Steigung der Regressionslinie im Vergleich zur Anzahl der Zyklen. Dazu gibt es hier auch eine Excel-Illustration.

8. Ein exemplaarischer Fall

Die Überlegungen in dieser Studie mögen für erfahrene Daten-Wissenschaftler offensichtlich sein, aber es scheint, als ob die meisten Klimatologen sich der Probleme nicht bewusst sind (oder versuchen sie vielleicht, diese Probleme unter den Teppich zu kehren?), die sich aus der Länge des betrachteten Zeitfensters und dem Ausgangswert ergeben. Als finale Illustration wollen wir die „offiziellen“ Klimadaten betrachten und sehen, was passiert, wenn man die Länge des Zeitfensters sowie den Ausgangswert verändert (Abbildungen 19 bis 21). Aus diesem Beispiel geht eindeutig hervor, dass lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters die Tür weit aufstoßen zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

Abbildung 19: Beispiel einer „offiziellen“ Anomalie einer globalen Temperaturreihe

Abbildung 20: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien

Abbildung 21: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien (fortgesetzt)

[Wegen der Bedeutung dieser Graphik folgt hier die Übersetzung der Bildinschrift:

obere Graphik: Ein globaler Abkühlungstrend (etwa 0,35 Grad pro Dekade) während der 11 Jahre von 1998 bis 2009. Realistisch? Nein!

Mittlere Graphik: Ein globaler Erwärmungstrend (etwa 0,12 Grad pro Dekade) während der 30 Jahre von 1979 bis 2009. Realistisch? Nein!

Untere Graphik: Was also ist realistisch? Die jährliche Varianz in den Daten ist groß im Vergleich zu jedwedem Trend. Es gibt eindeutig erkennbare Zyklen in den Daten (ein solcher von etwa 4 Jahren ist in der mittleren Graphik erkennbar). Was zeigen nun also die Daten während der Satelliten-Ära? Keine Erwärmung von 1979 bis 1997; ein signifikantes El Nino-Ereignis 1997-98 führte zu einer sprunghaften Änderung von etwa 0,3 Grad; keine Erwärmung von 1999 bis 2009. Die gesamte Erwärmung der letzten 30 Jahre ereignete sich in einem einzigen einzelnen Jahr!

Ende Übersetzung der Inschrift.]

Schlussfolgerungen:

1. IPCC-Projektionen resultieren aus mathematischen Modellen, welche der Kalibrierung bedürfen, indem man Daten aus der Vergangenheit einfließen lässt. Die Genauigkeit der Kalibrierungs-Daten ist von ultimativer Bedeutung, ist doch das Klimasystem höchst nicht-linear, und das gilt auch für die (Navier-Stokes)-Gleichungen und die (Runge-Kutta Integrations-) Algorithmen, welche in den IPCC-Computermodellen angewendet werden. Als Konsequenz daraus ist das System und auch die Art, wie das IPCC dieses präsentiert, hoch sensitiv gegenüber winzigen Änderungen des Wertes der Parameter oder der Ausgangsbedingungen (die Kalibrierungs-Daten im gegenwärtigen Fall). Sie müssen mit höchster Genauigkeit bekannt sein. Das ist aber nicht der Fall, was ernste Zweifel an jedweder Folgerung aus den Modellprojektionen aufwirft.

2. Die meisten vom IPCC herangezogenen Mainstream-Daten mit Klimabezug sind tatsächlich erzeugt aus Daten von Messpunkten auf dem Festland. Dies hat zwei Konsequenzen:

i) Die räumliche Verteilung der Daten ist höchst fragwürdig, weil die Temperatur über den Ozeanen, die 70% der Erdoberfläche bedecken, zumeist unbeachtet bleiben oder „guestimated“ werden mittels Interpolation;

ii) Die Anzahl und die Aufstellungsorte dieser Landstationen hat sich mit der Zeit deutlich verändert, was Verzerrungen und Fake-Trends induzierte.

3. Der Schlüssel-Indikator des IPCC ist die globale Temperatur-Anomalie, errechnet aus räumlicher Mittelung, ebenso wie mögliche lokale Anomalien. Lokale Anomalien sind der Vergleich der gegenwärtigen lokalen Temperatur mit der gemittelten lokalen Temperatur über einen festgesetzten Zeitraum von 30 Jahren, der sich alle 30 Jahre ändert (1930-1960, 1960-1990, etc.). Das Konzept der lokalen Anomalien ist höchst fragwürdig wegen der Präsenz poly-zyklischer Komponenten in den Temperaturdaten einschließlich deutlicher Verzerrungen und falschen Trends, wenn das Zeitfenster kürzer ist als mindestens 6 mal die längste, aus den Daten hervorgehende Periode. Unglücklicherweise ist bzgl. der Temperaturdaten genau das der Fall.

4. Lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters stoßen die Tür weit auf zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

5. Als Folge davon ist es dringend geraten, das Konzept der globalen Temperatur-Anomalie zu verwerfen und sich auf unverzerrte lokale Daten zu stützen, um eine mögliche Änderung des lokalen Klimas aufzufinden. Das wäre ein physikalisch bedeutungsvolles Konzept, und das ist schließlich das, was für die lokalen Anwohner, für Landwirtschaft, Industrie, Dienstleistungen, Geschäftsbereiche, Gesundheit und Wohlergehen allgemein von Bedeutung ist.

Notes

[1] The GISS Surface Temperature Analysis (GISTEMP v4) is an estimate of global surface temperature change. It is computed using data files from NOAA GHCN v4 (meteorological stations), and ERSST v5 (ocean areas), combined as described in Hansen et al. (2010) and Lenssen et al. (2019) (see : https://data.giss.nasa.gov/gistemp/). In June 2019, the number of terrestrial stations was 8781 in the GHCNv4 unadjusted dataset; in June 1880, it was only 281 stations.

[2] Matthew J. Menne, Claude N. Williams Jr., Michael A. Palecki (2010) On the reliability of the U.S. surface temperature record. JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D11108, doi:10.1029/2009JD013094, 2010.

[3] Venema VKC et al. (2012) Benchmarking homogenization algorithms for monthly data. Clim. Past, 8, 89-115, 2012.

[4] F.K. Ewert (FUSION 32, 2011, Nr. 3 p31)

[5] H. Masson,Complexity, Causality and Dynamics inside the Climate System (Proceedings of the 12thannual EIKE Conference, Munich November  2018.

[6] IPCC, http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter3.pdf]

Link: http://www.science-climat-energie.be/2019/07/24/climate-about-which-temperature-are-we-talking-about/

———————————————

Autoren: Samuel Furfari,  Professeur à l’Université libre de Bruxelles et Henri Masson, Professeur (émérite) à l’Université d’Antwerpen

Übersetzt von Chris Frey EIKE




So heiß, dass man städtische Wärmeinseln vom Weltall aus sieht

Die Wärme der Rollbahnen des Flughafens Charles DeGaulle in Paris-Orly sind vom Weltall aus leicht erkennbar. (Ebenso wie alle anderen idealen Aufstell-Orte für Klimawandel-Thermometer). Die Rollbahnen des Flughafens Charles DeGaulle befinden sich (glaube ich) oben rechts auf der Wärmekarte.

Abbildung 1: Die Ökostress-Karte der NASA von Paris. Quelle: NASA/JPL-Caltech

Bitte um Handzeichen: Wer glaubt, dass die Thermometer im Jahre 1880 zu hohe Werte zeigten? Irgendwer?

Die Fotos wurden am frühen Morgen gemacht. Sie zeigen, wie es wegen des UHI in den Zentralbereichen einer jeden Stadt viel wärmer ist als in der umgebenden natürlichen Landschaft – eine Folge davon, dass Stadtflächen Wärme über den Tag speichern, die sie dann nur sehr langsam wieder abgeben.

Die Tatsache, dass die Temperatur am frühen Morgen 25 bis 30°C betragen hatte, zeigt, dass ein großer Teil der Wärme der Vortage gespeichert worden war von Oberflächen mit hoher Wärmekapazität (Asphalt, Beton und Gewässer). Diese Oberflächen waren nicht in der Lage, die Wärme bis zum nächsten Tag vollständig abzustrahlen. Die eingefangene Wärme resultierte an einigen Stellen in sogar noch höheren Mittagstemperaturen in den hohen 40-er Grad Celsius, als sich die Hitzewelle fortsetzte.

Zwar hatten all diese Wärmesenken die ganze Nacht Zeit, ihre Extra-Wärme loszuwerden, und doch strahlten sie immer noch – sogar noch am nächsten Tag zur Mittagszeit.

Abbildung 2: Ökostress-Wärmekarte von Rom. Quelle wie oben.

Nett, dass man die Flughäfen gekennzeichnet hat.

Hier noch die gleichen Karten von Mailand und Madrid:

Abbildung 3: Mailand, Ökostress-Wärmekarte. Quelle wie oben

Abbildung 4: Ökostress-Wärmekarte von Madrid. Quelle wie oben

Die COSTRESS-Sonde wurde im vorigen Sommer zur Weltraumstation geschossen und sammelte ihre ersten Daten schon wenige Tage nach der Installation. Das Instrument misst Variationen der Oberflächentemperatur bis auf wenige Zehntelgrad genau, und das mit beispiellosem Detailreichtum: Es kann Temperaturänderungen zu verschiedenen Tageszeiten auf Flächen von der Größe eines Football-Feldes erkennen. Diese Messungen helfen den Wissenschaftlern bei der Abschätzung des Wohlergehens von Pflanzen und Reaktionen auf Wasserknappheit, was ein Indikator für eine bevorstehende Dürre sein kann. Das Instrument kann auch zur Messung von Wärmetrends herangezogen werden, zum Aufspüren von Waldbränden und Steigerungen vulkanischer Aktivitäten.

Mehr zu ECOSTRESS findet man hier.

Link: http://joannenova.com.au/2019/08/we-can-see-the-urban-heat-islands-from-space/

Übersetzt von Chris Frey EIKE




Kinderpro­pheten und Missionare der Klima-Katastrophe

Die Rolle von Kindern in der Kultur des Klima-Katastrophismus‘

1. Ernste Szenarien für Kinder: real oder kulturell erzeugt?

1.1 Ängstigung unserer Kinder: Ab wann finden wir es akzeptabel, Kinder institutionell zu ängstigen? Während unser erster spontaner Gedanke lautet, dass das niemals geschehen sollte, gibt es in der Praxis mindestens zwei Szenarien, in denen genau das als moralisch akzeptabel eingeschätzt wird. Das erste Szenario ist, wenn gefährliche, harte Realitäten jenseits der Kontrolle von Erwachsenen es erforderlich machen, dann muss man den Kindern die Achtung vor derartigen Realitäten beibringen. Oftmals kann dies auch eine gewisse Ängstigung mit sich bringen in der Hoffnung, dass diese den Kindern hilft, sich sicher zu fühlen. Ein Beispiel hierfür ist das Training mit Gasmasken im 2. Weltkrieg, weil Erwachsene nicht sofort überall sein können, um den Kindern mit den Masken im Ernstfall zu helfen. Das zweite Szenario ist, wenn es moralisch akzeptabel ist, die Werte einer Kultur zu stützen, welche die moralische Landschaft definiert (oder eine neue aufstrebende Kultur, welche versucht, genau eine solche Landschaft zu definieren). In diesem zweiten Fall wird das Einträufeln erkannter Ängste als normativ angesehen, um ein bestimmtes soziales Verhalten zu erreichen, den Zugang zu Vorteilen zu gewähren und vermeintliche kulturelle Belohnungen zu erhalten. Ein Beispiel hierfür ist die Ängstigung von Kindern über Sünden oder die Hölle oder die Kreuzigung, um christliches, soziales Verhalten zu erzwingen und das Lockmittel auszubreiten, bei willfährigem Verhalten in den Himmel zu kommen (anstatt in die Hölle).

1.2 Protestierende Kinder: Wann finden Kinder zueinander, um zu versuchen, ihre gemeinsame Stimme des Protestes zu erheben, damit sie von der Gesellschaft gehört wird? Wie oben gibt es auch hier mindestens zwei Szenarien, unter denen das geschieht. Das erste Szenario ist eine Reaktion auf eine bestehende und weit verbreitete und irgendwie geartete ernste Benachteiligung von Kindern (und vielleicht auch von Erwachsenen). Das zweite Szenario ist eine Reaktion auf starke, an die Wand gemalte Gefahren kultureller Art, welche fälschlich interpretiert worden sind als eine reale und präsente Bedrohung oder Schädigung. In beiden Fällen werden Maßnahmen seitens der Erwachsenen erwartet, um das Problem abzuschwächen oder aus der Welt zu schaffen. Einige Erwachsene sind typischerweise involviert in die Organisation einer Kinder-Bewegung, wobei sie angeglichene Interessen haben; irgendetwas von echtem Schutz ihrer Kinder (oder der Interessen derselben) bis hin zu virtue signaling. Hierzu folgen später ein paar Beispiel-Szenarien.

1.3 Kinder in der Verantwortung: Wann befürworten die Führer einer Gesellschaft, dass wesentlichen politischen Anliegen von Kindern Ausdruck verliehen wird, und implementieren so etwas (oder versuchen es zumindest)? Und wieder gibt es mindestens zwei Szenarien, bei denen das geschieht. Im ersten Szenario geht es um eine weit verbreitete Benachteiligung wie im Abschnitt oben beschrieben, wobei für die soziale Führung ein repräsentatives Opfer-Kind an die Front geschoben wird, so dass der Schrei nach Wiedergutmachung besonders laut zu vernehmen ist. Egal ob Kinder nun wirklich ernsthaft benachteiligt sind oder psychologisch und/oder physisch unter diesen Nachteilen leiden oder nicht, egal ob unter den Ursachen kulturelle Elemente sind oder nicht, ist dies essentiell ein Thema harter Realität der gegenwärtigen Schädigung. Im zweiten Szenario sind Führer emotional behindert, um der Politik eines Kindes zu widerstehen oder zu widersprechen, selbst wenn die Auswirkungen wahrscheinlich insgesamt sehr negativ sind, weil dies einigen kulturell vorgegebenen Ängsten Ausdruck verleiht. Oder zumindest ist Widerstehen in einer neu aufkeimenden Kultur immer noch eine zentrale Herausforderung der Führung. Kultureller Bias macht die Menschen blind für Nachteile, und unsere in uns verwurzelten Instinkte, ein Stigma zu vermeiden, werden wahrscheinlich bei jenen verstärkend zum Tragen kommen, die ihre Führungsmacht erhalten wollen. Fehlende Unterstützung beschwört das Risiko eines ernsten kulturellen Stigmas herauf, einschließlich der Schande durch Nichtanerkennung eines moralischen Anspruchs durch ein ,benachteiligtes‘ Kind (benachteiligt jedenfalls dem akzeptierten kulturellen Narrativ zufolge). Beispiele hierfür folgen weiter unten.

1.4 Was ist was? Eine säkulare, vernünftige Gesellschaft sollte sich bemühen, die kulturellen Szenarien all dieser Fälle zu vermeiden, führen sie doch zu sinnlosen Ängsten, Traumata, falschen Hoffnungen und ungeeigneten sozialen Maßnahmen. Eine vernünftige religiöse Gesellschaft sollte sich bemühen, den Zusammenhang mit Kernwerten zu begrenzen, und verhindern, dass unsere emotionalen Gedanken für Kinder auf ein alarmistisches/extremistisches Niveau gehoben werden. Und sie sollte verhindern, dass Kinder, die zu mehr als einer schwachen religiösen Anteilnahme gezwungen werden, zu Schaden kommen.

Und doch, für jeden gegebenen Protest oder politische Vorgaben oder die Verbreitung von Ängsten – wie können wir erkennen, um welches Szenario es sich handelt? Wie sollen wir herausfinden, ob die unseren Kindern konstant eingeträufelte Angst bzgl. Klimawandel, die daraus folgenden KlimaStreiks der Kinder sowie die dramatischen, von einer Greta Thunberg geäußerten Bestrebungen in den Bereich Realität oder in den Bereich Kultur fallen? Basiert Gretas Auftritt vor den UN genauso auf Realität wie der Auftritt von Malala Yousafzai ebendort? Brauchen beide die gleiche weltweite Unterstützung für eine Änderung? Ist die Natur der Schul-Klimastreiks ultimativ genauso materiell und gerechtfertigt wie der Kinder-Kreuzzug im Jahre 1963, auch wenn die Bandbreite des Problems, welches heute den Kinderprotesten zugrunde liegt, drastisch teurer ist? Große Schichten der Bevölkerung stehen enthusiastisch hinter den Schulstreiks und Greta; sie werden die letzten beiden Fragen sicher mit ,ja‘ beantworten. Aber wie sieht der direkte Vergleich beider Ereignisse aus?

2.Vergleichbare Fälle von Kindern in der Verantwortung: Malala und Greta

In dem Artikel Child Soldiers in the Culture Wars [etwa: Kindersoldaten im Kulturkrieg] heißt es: Die von politisch aktiven Kindern repräsentierten Wertvorstellungen sind offensichtlich. Sensible Themen, die bei leidenschaftsloser Behandlung verkümmern, blühen auf, wenn diese Art der Analyse tabu ist. Hinzu kommt der emotionale Einfluss des Umstandes, dass Kinder mit ihrem Unschuldsanspruch besondere Einsichten/Wahrheiten haben, was die Überzeugungskraft dieser Mädchen mächtig verstärkt. (Trotz der Tatsache, dass dieser Umstand falsch ist und auch irrelevant bzgl. persönlicher Aspekte ist wie Gretas Asperger-Syndrom). Diese Faktoren erzeugen eine emotionale Nebelwand, welche die Irrationalität unserer Empfindungen verstärken kann. Um wie in Abschnitt 1 beschrieben herauszufinden, ob Realität oder Kultur die Auftritte dieser beiden Mädchen vor den Führern der Welt dominieren hinsichtlich grundlegender und komplexer sozialer Zusammenhänge, müssen ein paar Fragen gestellt werden:

a. Wird das Kind moralisch durch eine Kultur gestützt?

b. Falls ja, wurzelt der Auftritt des Kindes im Haupt-Narrativ dieser Kultur oder wird sie von demselben getrieben?

c. Repräsentiert der Auftritt einen Aspekt gegenwärtiger oder zukünftiger Nachteile? Zukunft bedeutet wahrscheinlich kulturell.

d. Diktiert das Kind eine bestimmte Lösung (innerhalb eines bestimmten Zeitrahmens)? Selbst bei großer Komplexität könnte eine Kultur das.

e. Falls ja zu Frage 4, und egal, wie man die Fragen 1 und 2 beantwortet – scheint diese Lösung irrational? Starke kulturelle Lösungen sind es jedenfalls.

f. Wie groß ist der Aufwand (bzgl. Änderung des Verhaltens oder von Infrastruktur). Kultureller Aufwand kann astronomisch sein.

(Das Niveau der Achtung ist ebenfalls von Interesse. Ein starker Glaube respektiert ultimativ keine Autorität außer seiner eigenen). Die Antworten sagen uns, ob eine emotionale Verstärkung einer schon etablierten Realität einen Zusatzschub verleiht, oder ob es sich um ein entscheidendes Mittel handelt, die Auslösung kultureller Ängste zu gewährleisten.

[Es folgt das Beispiel von Malala bei ihrem Auftritt vor den UN. Der Autor beschreibt detailliert ihr religiöses Umfeld und auch, dass sie selbst religiös motiviert ist {im Islam}. Ihre Forderungen nach Bildung für Mädchen und Frieden ist sicher kulturell getrieben, aber auch säkular, weil sie einen echten Notstand anprangert. Als Nächstes folgt das Beispiel von Greta Thunberg, deren Aktivitäten ganz anders gelagert sind. Als Drittes bringt der Autor noch das Beispiel eines Mädchens des Xhosa-Stammes in Südafrika, das hier der Länge wegen nicht übersetzt wird. – Anm. d. Übers.]

Die Kultur hinter Gretas Auftritt vor dem Machtapparat der Welt ist hier charakterisiert. Im Mittelpunkt dieser Kultur steht etwas, das seit Jahrzehnten von höchsten Machtapparaten der ganzen Welt propagiert wird, nämlich eine hohe Sicherheit einer baldigen (nach Jahrzehnten) globalen Klima-Katastrophe. Gretas Worte lassen keine Zweifel daran aufkommen, dass ihr Auftreten durch dieses Narrativ getrieben wird, so dass die Antwort zu b) lautet ,ja‘. Neben sekundären Behauptungen gegenwärtiger Schäden behandelt Greta hauptsächlich Ängste in der Zukunft und einen erheblich größeren Schaden, wenngleich sie auch das ,unmittelbar‘ betont (bis ,irreversibel‘). Also lautet c) ,Zukunft‘. Wenn das Hauptereignis bereits im Gange ist, kann dies keine kulturell erzeugte Angst sein; für eine projizierte zukünftige Angst kann es das aber sehr wohl sein. Hinsichtlich d) fordert Greta eine Lösung und gibt sogar den Zeitrahmen vor. Bei der Antwort zu e) kommen subjektive Ansichten ins Spiel. Greta bezeichnet die Klimakatastrophe, das ,Opfern der Zivilisation und der Biosphäre‘ als mit Sicherheit eintretend. Bei längeren Auftritten in UK und Frankreich zitiert sie das IPCC, welches diese Katastrophe bestätigt hätte. Aber die IPCC-Wissenschaft stützt nicht eine hohe Sicherheit des Eintretens einer globalen Klimakatastrophe innerhalb von Jahrzehnten. Dies bestätigt, dass ihr politisiertes, zentrales Narrativ des Katastrophismus‘ emotional getrieben, das heißt falsch ist. Folglich richtet sich Gretas Lösung an emotionale Inventionen und nicht an Realitäten. Das ist wirklich irrational; e) ist ein ,ja‘. Zu f), Greta tritt vor den Führern der Welt auf, und ihre Forderung an die Welt ist astronomisch. Um der unmittelbar bevorstehenden globalen Apokalypse zu entgehen, ist die größte Anpassung des Verhaltens und der Infrastruktur der Menschheit seit der industriellen Revolution erforderlich, vielleicht sogar seit des Aufkommens von Landwirtschaft, innerhalb kürzester Zeit. Was immer die Mainstream-Wissenschaft der Politik vorgibt, es rechtfertigt nicht diese Radikalität. Greta zeigt keinerlei Respekt vor den Führern und behauptet außerdem, dass sie alle lügen. Emotionale Überzeugung bzgl. der Katastrophe lässt diese als unvermeidlich erscheinen.

[…]

Tabelle 1: Sie zeigt, dass Malalas Kampagne auf Realität beruht, Gretas Kampagne dagegen auf kultureller Angst.

Tabelle 1: Sie zeigt, dass Malalas Kampagne auf Realität beruht, Gretas Kampagne dagegen auf kultureller Angst.

[…]

3. Vergleichbare Fälle von Kinderprotesten: Der Kreuzzug 1963 und die Schul-Klimastreiks

Hinsichtlich der Massenproteste von Kindern geben die Fragen in Abschnitt 2 auch Aufschluss darüber, ob die Ereignisse auf Realität oder auf kulturellen Säulen beruhen. Der Kinder-Kreuzzug im Jahre 1963 in Birmingham (USA, Alabama) war eingebettet in eine größere Kampagne zur Aufhebung der Rassentrennung in der Stadt und um dem Rassismus größere Aufmerksamkeit zuteil werden zu lassen. Obwohl der Protest nicht von Gewalt gekennzeichnet war, wurde das Auftreten von Kindern von Vielen kontrovers angesehen, einschließlich einiger Erwachsener in der Kampagne selbst. Am Ende war es für die Campaigner ein Glücksspiel, dass der geschützte soziale Status von Kindern, die Bloßstellung von Autoritäten sowie emotionale Reaktionen in potentiell breiteren Kreisen ihnen einen signifikanten Vorteil einräumen werden. Aber sie setzen die Kinder damit dem Risiko aus, dass falls das Vorgehen als zynisch bewertet wird, die Kritik vernichtend ist. Präsident Kennedy war dagegen, fügte aber hinzu, dass Missstände beseitigt werden müssen. Kirchen waren physikalische Stützpunkte und die Protestierer unterstützt durch ihren Glauben – es gab also einen kulturellen Sponsor. Und trotzdem, die Ziele des Kreuzzuges waren genau wie Malalas Auftritt säkularer Natur. Die Kinder waren selbst benachteiligt (ein entscheidender Faktor), während sie gegenwärtig nur für die Erwachsenen sprechen. Die damaligen Kinder waren keine Schachfiguren, sondern waren direkt und indirekt Ungerechtigkeiten ausgesetzt, und ihr Widerstand war echt. Sie forderten Verhandlungen und ultimativ eine spezifische Lösung, das Ende der Rassentrennung. Aus heutiger Sicht und im Vergleich zu den damaligen Prinzipien der USA und der Welt waren ihre Forderungen mit Sicherheit nicht irrational. Und definitiv nicht astronomisch, wenngleich auch von einer mächtigen Minderheit eine Änderung von deren Verhalten verlangt wurde.

Heute ist Greta die führende Sprecherin der Kinder-Klimastreiks, und ihre Antworten stehen ebenfalls für sie:

Würde ein Roboter vom Mars die gleichen Antworten finden? Das können wir nicht wissen, es ist unmöglich, uns selbst von Bias zu lösen. Die Klimastreik-Kinder sind größtenteils privilegiert und derzeit bestimmt nicht benachteiligt; ihre Furcht ist ein nicht von Erwachsenen abgewürgter Mythos. Es besteht für sie nicht das Risiko scharfer Reaktionen. Das allein validiert noch nicht ihre Causa, aber es scheint, als ob sie eine schon offen stehende kulturelle Tür einrennen. Es gab viel Unterstützung im globalen Maßstab seitens der Erwachsenen und praktisch keine formale Opposition seitens der Obrigkeit. Offene Türen einzurennen scheint für einen Protest paradox zu sein. Das ist so, weil kulturelle Ängste nicht real sind. … Sie sind im Wesentlichen emotionale Bekehrer eines kulturellen Narrativs, hier Klima-Katastrophismus, und diese Kultur wird sie als Keil in die Mächtigen treiben. Zum Vergleich: die Kinder von 1963 waren sehr harten Reaktionen ausgesetzt: Wasserwerfern, Hunden und Gefängnis. Sie rannten definitiv gegen verschlossene Türen an, was wir heute in der Rückschau als verschlossen von einer lokalen Subkultur ansehen. … Sie repräsentierten Gleichheit und Vernunft bzgl. etwas, das eine tief verwurzelte Subkultur des Rassismus‘ war. Die Historie hat gelächelt ob ihres Pokers damals im Jahre 1963, aber das kann man nicht vorhersehen.

[Im Folgenden führt der Autor sein Anliegen in weiteren langen Absätzen aus, die hier nicht übersetzt werden. Aber erzieht dann ein interessantes Schluss-Resumee:]

Heerscharen verängstigter Kinder und die Natur der Kinder-Klimastreiks, absolute Forderungen eines Kindes an die Führer der Welt, welches diese Führer instruiert, bzgl. einer unmittelbar bevorstehenden Apokalypse in Panik zu geraten (ohne diese wesentlich in Frage zu stellen) – diese Phänomene sollten mit einer großen roten Flagge versehen werden mit der Aufschrift ,Kultur‘. Aber jene Wissenschafts-Disziplinen, welche diese Phänomene studieren, scheinen in Massen das kulturelle Narrativ zu glauben, welches (ohne dramatische Gegenmaßnahmen) eine unmittelbar bevorstehende (Jahrzehnte) Klimakatastrophe propagiert, und zu glauben, dass es ein Ergebnis exakter Wissenschaft ist. Das ist falsch; die Mainstream-Wissenschaft stützt dieses Narrativ nicht. Die Gesellschaft ängstigt unnötigerweise Millionen Kinder.

Eine Frage erhebt sich angesichts des Jahrtausend-Aspektes einer katastrophischen Klima-Kultur und deren Kreuzzug, unser derzeitiges Verhalten und unsere derzeitige Klima-Infrastruktur im ,Notfall‘-Tempo zu ändern: „Unter welchem Stress stehen wir, dass derartige Maßnahmen rechtfertigt?“ Plus: „Wie viel davon ist real, und wie viel einfach nur wahrgenommen?“. Kulturen können potentiell künstlichen Stress hervorrufen und/oder reale/künstliche Ängste erzeugen.

Link: https://wattsupwiththat.com/2019/07/29/child-prophets-and-proselytizers-of-climate-catastrophe/

Übersetzt von Chris Frey EIKE




Warum man in Graphiken keine Trendlinien legen sollte

Wir sehen hier bei WUWT (und EIKE Anmerkung des Übersetzers) sehr viele Graphiken – alle Arten von Graphiken von vielen verschiedenen Datensätzen. Beispielhaft sei hier eine allgemein gezeigte Graphik der NOAA gezeigt, die aus einem Stück bei Climate.gov stammt und die Bezeichnung trägt „Did global warming stop in 1998?” von Rebecca Lindsey, veröffentlicht am 4. September 2018:

Die Details in dieser Graphik interessieren mich nicht – das Ganze qualifiziert sich selbst als „dümmlich“. Die vertikale Skala ist in Grad Fahrenheit angegeben und die gesamte Bandbreite über 140 Jahre liegt größenordnungsmäßig bei 2,5°F oder etwa 1,5°C. Interessant in der Graphik ist die Mühe, „Trendlinien“ über die Daten zu legen, um den Leser etwas über die Daten zu vermitteln, was der Autor der graphischen Repräsentation übermitteln will. Dieses „etwas“ ist eine Meinung – es ist immer eine Meinung – es ist nicht Teil der Daten.

Die Daten sind die Daten. Wenn man die Daten in eine graphische Darstellung zwängt, hat man bereits Meinung und persönliche Beurteilung einfließen lassen in Gestalt der Wahl von Anfangs- und Endzeitpunkt, vertikalen und horizontalen Skalen und, in diesem Falle, die Schattierung eines 15-Jahre-Zeitraumes an einem Ende. Manchmal übernimmt irgendeine Software die Entscheidung der vertikalen und horizontalen Skala – und nicht rationale Menschen – was sogar zu noch größerer Konfusion führt und manchmal zu großen Fehlinterpretationen.

Jeder, der die Daten in der oberen Graphik nicht eindeutig erkennt ohne die Hilfe der roten Trendlinie sollte sich ein anderes Studienfeld suchen (oder seinem Optiker einen Besuch abstatten). Die untere Graphik ist in ein Propaganda-Werkzeug verwandelt worden mittels Addition von fünf Meinungen in Gestalt von Mini-Trendlinien.

Trendlinien ändern die Daten nicht – sie können lediglich die Sichtweise auf die Daten verändern (hier). Trends können manchmal nützlich sein (bitte mit einem großen vielleicht versehen), aber sie bewirken in den Graphiken der NOAA oben nichts Anderes als zu versuchen, den vom IPCC sanktionierten Gedanken des „Stillstands“ zu verunglimpfen. Damit wollen der Autor und die Herausgeber ihre gewünschte Meinung bei Climate.gov unterstreichen. Um Rebecca Lindsey aber etwas gerecht zu werden – sie schreibt „wie viel langsamer der Anstieg erfolgt, hängt vom Kleingedruckten ab: nämlich welchen Datensatz der globalen Temperatur man betrachtet“ (hier). Dazu hat sie sicher das Recht. Hier folgt die globale mittlere Temperatur der unteren Troposphäre von Spencer an der UAH:

Man braucht hier keinerlei Trendlinien, um den Stillstand zu erkennen, welcher sich vom Ende des Super El Nino 1998 bis zum Beginn des El Nino 2015-2016 erstreckt. Dies illustriert zweierlei: Hinzugefügte Trendlinien liefern zusätzliche Informationen, die nicht Bestandteil des Datensatzes sind, und es ist wirklich wichtig zu wissen, dass es für jedwedes wissenschaftliches Konzept mehr als nur einen Datensatz gibt – mehr als eine Messung – und es ist entscheidend wichtig zu wissen „What Are they Really Counting?“, wobei der zentrale Punkt Folgender ist:

Also haben wir bei allen gezeigten Messungen, die uns als Informationen angeboten werden, besonders wenn sie von einer behaupteten Signifikanz begleitet werden – wenn man uns also sagt, dass diese Messungen/Zahlen dies oder das bedeuten – eine grundlegende Frage: Was genau registrieren sie da eigentlich?

Natürlich erhebt sich da eine Folgefrage: Ist das, was sie registriert haben, wirklich eine Messung dessen, über was sie berichten?

Jüngst kam mir ein Beispiel aus einem anderen Bereich vor Augen, wie intellektuell gefährlich die kognitive Abhängigkeit (fast schon eine Überzeugung) zu Trendlinien für die wissenschaftliche Forschung sein kann. Man erinnere sich, Trendlinien in aktuellen Graphiken sind oftmals berechnet und von Statistik-Softwarepaketen gezeichnet, und die Ergebnisse dieser Software werden viel zu oft als eine Art enthüllter Wahrheit angesehen.

Ich habe nicht den Wunsch, irgendeine Kontroverse loszutreten über das aktuelle Thema einer Studie, welche die folgenden Graphiken produziert hat. Ich habe die genannten Bedingungen in den Graphiken abgekürzt. Man versuche, mir zu folgen, aber nicht um die medizinische Thematik zu verstehen, um die es geht, sondern um die Art und Weise, mit der Trendlinien die Schlussfolgerungen der Forscher beeinflusst haben.

Hier folgt ein großer graphischer Datensatz aus den Begleitinformationen der Studie:

Man beachte, dass dies Darstellungen der Häufigkeits-Raten sind, also die Frage „wie viele Fälle dieser Krankheit pro 100.000 Menschen sind berichtet worden?“ – hier gruppiert um 10-Jahre-Altersgruppen. Man hat farbige Trendlinien hinzugefügt, wo sie glauben (Meinung!), dass signifikante Änderungen der Anzahl der Fälle aufgetreten sind.

(Einige wichtige Details, über die später noch gesprochen wird, können im Großbild eingesehen werden.)

Wichtige Anmerkung: Die in dieser Studie untersuchte Bedingung ist nichts, was irgendwie von Jahreszeiten oder Jahren abhängig ist wie etwa Grippe-Epidemien. Es ist eine Bedingung, die sich in den meisten Fällen über Jahre hinweg entwickelt, bevor sie entdeckt und besprochen werden kann – etwas, das nur entdeckt werden kann, wenn es beeinträchtigend wird. Es kann auch durch regelmäßige medizinische Untersuchungen entdeckt werden, welche nur bei älteren Menschen durchgeführt werden. Also könnte „jährliche Fallzahl“ keine ordentliche Beschreibung dessen sein, was registriert wurde – es ist tatsächlich eine Maßzahl von „jährlichen entdeckten und bekannt gemachten Fällen“ – nicht tatsächlich Häufigkeit, was etwas ganz Anderes ist.

In der veröffentlichten Studie erscheint eine kondensierte Version der Graphiken:

Die älteren Frauen und Männer sind in den Graphiken in der oberen Reihe gezeigt, wobei die Fallzahlen glücklicherweise seit den 1980-er Jahren bis heute rückläufig sind. Durch das mit Bedacht vorgenommene Hinzufügen farbiger Trendlinien steigen die Fallzahlen bei Frauen und Männern jünger als 50 Jahre ziemlich steil. Auf dieser Grundlage (und einer Menge anderer Überlegungen) ziehen die Forscher folgende Schlussfolgerung:

Schlussfolgerungen und Relevanz: Diese Studie fand ein zunehmendes Vorkommen von CRC-Diagnosen [= Darmkrebs] unter kanadischen Frauen und Männern unter 50 Jahren. Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren.

Noch einmal: Es geht mir in keiner Weise um das medizinische Thema hier … sie mögen ja recht haben aus Gründen, die hier keine Rolle spielen. Der Punkt, den ich herüber bringen möchte, ist vielmehr Folgender:

Ich habe zwei der Teilgraphiken mit Kommentaren versehen, in denen es um Fallzahlen bei Männern über 50 Jahre bzw. unter 50 Jahren geht. Über eine Datenlänge von 45 Jahren verläuft die Bandbreite bei Männern älter als 50 Jahre zwischen 170 und 220 Fällen pro Jahr mit einer Varianz von über 50 Fällen pro Jahr. Bei Männern jünger als 50 Jahre lagen die Fallzahlen ziemlich stetig zwischen 8,5 und 11 Fällen pro Jahr pro 100.000 Menschen über einen Zeitraum von 40 Jahren. Erst ganz zuletzt, bei den letzten 4 Datenpunkten, zeigte sich ein Anstieg auf 12 bis 13 Fälle pro 100.000 pro Jahr – eine Zunahme um ein oder zwei Fälle pro Jahr pro 100.000 Menschen. Es kann die Trendlinie für sich sein, die eine Art Signifikanz erzeugt. Für Männer älter als 50 Jahre zeigte sich zwischen 1970 und Anfang der 1980-er Jahre eine Zunahme um 60 Fälle pro 100.000 Menschen. Und doch wird die entdeckte und berichtete Zunahme um einen oder zwei Fälle bei Männern unter 50 Jahren als eine Sache „höchster Priorität“ eingestuft – was jedoch in der Realität tatsächlich signifikant sein kann oder auch nicht – und alles könnte sehr gut auch innerhalb der normalen Varianz der Entdeckung und Meldung dieser Art Krankheit liegen.

Die Bandbreite der Fallzahlen bei Männern unter 50 Jahren blieb von Ende der 1970-er Jahre bis Anfang der 2010-er Jahre gleich – das ist ziemlich stabil. Dann gibt es vier etwas höhere Ausreißer hintereinander – mit Zunahmen von 1 oder 2 Fällen pro 100.000 Menschen. Soweit die Daten.

Falls es meine Daten wären – und mein Thema – sagen wir die Anzahl von Monarchfaltern in meinem Garten pro Monat oder so, würde ich aus dem Paneel mit den sieben Graphiken oben entnehmen, dass die Trendlinien alles konfus machen. Hier noch einmal:

Falls wir mal versuchen, die Trendlinien zu ignorieren, erkennt man in der ersten Teilgraphik, dass die Fallzahlen im Alter von 20 bis 29 Jahren im derzeitigen Jahrzehnt gleich hoch sind wie in den 1970-er Jahren – es gibt keine Änderung. Die Bandbreite liegt hier unter 1,5 Fälle pro Jahr.

Betrachtet man die Untergraphik 40 bis 49 Jahre, erkennt man, dass die Bandbreite etwas gesunken ist, aber die gesamte Größenordnung der Bandbreite beträgt weniger als 5 Fälle pro Jahr pro 100.000 Menschen. In dieser Altersgruppe wurde eine Trendlinie gezogen, welche eine Zunahme während der letzten 12 bis 13 Jahre aufweist, aber die Bandbreite ist gegenwärtig niedriger als während der 1970-er Jahre.

In den übrigen vier Teilgraphiken erkennt man Daten mit der Form eines „Buckels“, welche über 50 Jahre in jeder Altersgruppe die gleiche Bandbreite zeigen.

Es ist wichtig, sich daran zu erinnern, dass es hier nicht um eine Krankheit geht, deren Ursachen bekannt sind oder für die es eine Präventionsmethode gibt, obwohl man behandelt wird, wenn die Krankheit früh genug erkannt wird. Es ist eine Klasse von Krebs, und dessen Vorkommen wird nicht durch Maßnahmen bzgl. der öffentlichen Gesundheit kontrolliert, um diese Krankheit zu verhindern. Derartige Maßnahmen führen nicht zu einer Änderung der Fallzahlen. Man weiß, dass es altersabhängig ist und öfter bei Männern und Frauen auftritt, wenn sie altern.

Es ist diese eine Teilgraphik der Altersgruppe von 30 bis 39 Jahren, welche eine Zunahme der Fallzahlen um 2 Fälle pro Jahr pro 100.000 Menschen zeigt, was den Faktor kontrolliert, durch welchen sich bei Männern jünger als 50 Jahre diese Zunahme zeigt:

Man erinnere sich, im Abschnitt Schlussfolgerung und Relevanz der Studie wurde dies so beschrieben: „Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren“.

In diesem Beitrag geht es nicht um das Vorkommen dieser Krebsart bei verschiedenen Altersgruppen – sondern es geht darum, wie statistische Software Trendlinien über die Daten legt, welche zu Konfusion und möglichen Missverständnissen der Daten selbst führen können. Ich gebe zu, dass es auch möglich ist, Trendlinien aus rhetorischen Gründen über die Daten zu legen (mit der Absicht, Eindruck zu schinden) wie im Beispiel von Climate.gov (und Millionen anderer Beispiele in allen Bereichen der Wissenschaft).

Unter dem Strich:

1. Trendlinien sind nicht Bestandteil der Daten. Die Daten sind die Daten.

2. Trendlinien sind immer Meinungen und Interpretationen, welche den Daten hinzugefügt werden. Sie sind abhängig von der Definition (Modell, statistische Formel, Software, was auch immer), der man den „Trend“ verpasst. Diese Meinungen und Interpretationen können valide sein oder auch nicht oder auch unsinnig (und alles dazwischen ebenfalls).

3. Trendlinien sind KEINE Beweise – die Daten können Belege sein, sind aber nicht notwendigerweise Belege für das, was behauptet wird (hier).

4. Trends sind keine Ursachen (hier), es sind Auswirkungen. Trends der Vergangenheit haben nicht die gegenwärtigen Daten erzeugt. Gegenwärtige Daten werden keine zukünftigen Daten erzeugen (hier).

5. Falls die Daten mittels statistischer Software bearbeitet werden müssen, um einen „Trend“ zu bestimmen, dann würde ich vorschlagen, dass man weitere oder andere Forschungen durchführt oder dass die Daten so hohes Rauschen aufweisen, dass ein Trend irrelevant wäre.

6. Berechneten Trends eine „Signifikanz“ zuzuordnen auf der Grundlage eines P-Wertes ist statistisch invalid.

7. Man lege keine Trendlinien in die Graphiken seiner Daten. Falls die Daten nach bestem Wissen valide sind, braucht es keine Trendlinien, um anderen die Daten zu „erklären“.

Link: https://wattsupwiththat.com/2019/08/06/why-you-shouldnt-draw-trend-lines-on-graphs/

Übersetzt von Chris Frey EIKE