Menschengemachte Klimahysterie –basierend auf computergestützen Modellen

von Prof. Dr. Thomas Rießinger

Österreichischer Humor neigt gelegentlich zur Morbidität. Mancher erinnert sich vielleicht noch an das Lied „Regen“ des österreichischen Liedermachers Ludwig Hirsch, in dem mit aller Gelassenheit die Verse

„Es regnet, es regnet, es regnet seinen Lauf.
Und wenn sie alle ersoffen sind, dann hört es wieder auf“

vorgetragen werden. Bekannter sind vermutlich Georg Kreislers Zeilen

„Der Frühling, der dringt bis ins innerste Mark
Beim Taubenvergiften im Park“,

ganz zu schweigen von manchen Aussagen des berufsmäßigen Grantlers Helmut Qualtinger, wie beispielsweise „In Wien mußt‘ erst sterben, bevor’s dich hochleben lassen. Aber dann lebst‘ lang.“

Es scheint also zumindest stellenweise ein etwas eigentümlicher Humor im Alpenland zu herrschen und ganz besonders eigentümlich wird er, wenn er mit politischem Aktivismus in Verbindung gerät. Beispiele sind leicht zu finden. Nachdem vor kurzem ein von den Aktionen der sogenannten „Letzten Generation“ nicht eben begeisterter Twitter-Benutzer seine Meinung äußerte, der totalitäre und wirre Geist, der auf den Unis herrsche, sei schon während der Corona-Zeit gut zur Schau gestellt worden, antwortete Reinhard Steurer, seines Zeichens Professor für Klimapolitik in Wien, im heiligen Zorn: „Wir werden euch alle einsperren. Lockdown forever. Jetzt fürchtet euch vor dieser totalitären Wissenschaft.“ Und als man es wagte, ihn per Twitter für seine Äußerung zu kritisieren, warf er seinen Kritikern Humorlosigkeit vor und meinte: „Ab sofort antworte ich Klimakrisen-Verleugnern und -Schwurblern einfach so, wie sie es hören wollen. … Ob es sie auch so amüsiert wie mich?“

Welch ein feinsinniger Humor! Fast ist man versucht, ihn mit den büttenrednerischen Bemühungen von Marie-Agnes Strack-Zimmermann zu vergleichen, bei deren Ausführungen so manchem die Tränen gekommen sein dürften, wenn schon nicht vor Lachen, dann doch wenigstens aus Verzweiflung. Aber beim Klima, bei der Rettung des Planeten vor der drohenden Katastrophe, hört eben der Spaß auf, zumal Steurer ja nicht irgendein Professor ist, sondern Professor für Klimapolitik. Nicht für Klimaforschung, nicht für Klimaphysik, sondern für Klimapolitik, weshalb er sich auch „seit vielen Jahren mit der politischen Dimension der Klimakrise im Allgemeinen bzw. mit der politischen Bedeutung von Ausreden und Schein-Klimaschutz in allen Bereichen der Gesellschaft im Speziellen“ beschäftigt. Ja, man muss den Mann verstehen, schließlich darf man nicht einfach die Klimapanik in Zweifel ziehen, da sich sonst jede Grundlage seiner Professur in Luft auflösen würde, und das will ihm doch sicher niemand zumuten.

Präventive Todesstrafe

Immerhin hat sich Scheurer im Vergleich zu anderen Klimabewegten eher zurückhaltend geäußert. Zehn Jahre sind ins Land gezogen, seit Richard Parncutt, ein aus Australien stammender Professor für Musikpsychologie in Graz, die Todesstrafe für Klimaleugner gefordert hat. Gewöhnliche Massenmörder wollte er nicht hinrichten, die waren ihm wohl zu harmlos, aber bei Klimawandelleugnern sei das etwas ganz anderes. „Ich möchte behaupten, dass es prinzipiell in Ordnung ist, jemanden umzubringen, um eine Million andere Menschen zu retten.“ Und: „Die Todesstrafe ist angemessen für einflussreiche Leugner der Erderwärmung.“ Eine interessante juristische Variante: die präventive Todesstrafe, ausgesprochen auf der Basis einer Theorie, die vor allem auf computergestützen Modellen beruht. Man sollte sie vielleicht einmal dem deutschen Bundesverfassungsgericht vorlegen, dem ja bekanntlich der Klimaschutz noch stärker am Herzen liegt als die Rechtsstaatlichkeit, von der Freiheit des Individuums gar nicht zu reden. Darf man sich für einen Augenblick vorstellen, ein deutscher Professor hätte Ähnliches über ein anderes Thema geäußert? Wenn es zum Beispiel nicht um Leugner der Erderwärmung ginge, sondern um einflussreiche Leugner der Impfnebenwirkungen? Die Reaktionen würden sich gewaltig unterscheiden. Hassrede! Hetze! Volksverhetzung! Hausdurchsuchung! Verhaftung! Doch auch Parncutt wurde hart gemaßregelt: Er musste ein Gespräch mit seinem Universitätsrektor und seinem Dekan überstehen. In Amt und Würden ist er nach wie vor. Nicht nur für einen großen Teil der politischen Elite gilt Helmut Qualtingers Diktum: „Es gibt kaum etwas Schöneres, als dem Schweigen eines Dummkopfes zuzuhören.“

Globale Durchschnittstemperatur

Aber werfen wir doch einmal einen Blick auf das, was diese Menschen, ob Professoren oder nicht, so sehr aus der Bahn wirft. Es ist, wie sollte es auch anders sein, die Hitze, die unerträglich ansteigende Hitze, die sich in Form einer steigenden globalen Durchschnittstemperatur zeigt. Daher hat man das bekannte und beliebte 1,5-Grad-Ziel ersonnen, das im Rahmen des Pariser Klimaabkommens 2015 beschlossen wurde: Im Vergleich zu den Temperaturen von 1850 darf und soll die globale Durchschnittstemperatur um nicht mehr als 1,5 Grad Celsius steigen, sonst kann man das Klima nicht retten und die Menschheit schwitzt sich ihrem eigenen Untergang entgegen.

Nun entsteht dabei aber das eine oder andere Problem. Was soll man beispielsweise unter der globalen Durchschnittstemperatur verstehen? Hier kann das Wetter- und Klimalexikon des Deutschen Wetterdienstes weiterhelfen. „Unter der globalen Durchschnittstemperatur,“ lesen wir dort, „versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum.“ Man muss also den Durchschnittswert über alle Temperaturen eines Jahres und alle Weltgegenden ermitteln. Prinzipiell ist die Berechnung eines Durchschnitts kein Problem; hat man beispielsweise drei Messwerte zur Verfügung, so addiert man diese Messwerte, um die Summe anschließend durch drei zu teilen und so den Durchschnitt zu erhalten. Es geht hier aber nicht nur um drei Messwerte. Zur Bestimmung der tatsächlichen globalen Durchschnittstemperatur eines Jahres müsste man nichts weiter tun, als für jeden Punkt der Erdoberfläche die Temperatur zu jedem beliebigen Zeitpunkt des Jahres festzuhalten und dann mithilfe von ein wenig Integralrechnung den Mittelwert zu bilden. Das dürfte schwierig werden und das weiß man auch beim Deutschen Wetterdienst. „Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen.“

Man kann immer nur endlich viele Orte und endlich viele Zeitpunkte auswerten und wird somit immer mehr oder weniger weit von der Realität entfernt sein. Ein einfaches fiktives Beispiel kann das verdeutlichen. Hat man etwa eine gerade verlaufende Strecke von einem Kilometer Länge und eine Messgröße, die sich wie das Quadrat der Strecke verhält, so wird man am Punkt 0 den Messwert 0 finden, am Punkt 0,5 den Messwert 0,5*0,5=0,25 und am Punkt 1 den Messwert 1*1=1. Wieder kann man nicht alle möglichen Punkte auswerten, man muss annähern. Die einfachste Näherung besteht darin, nur den Anfangs- und den Endwert zu betrachten und ihr Mittel zu bilden: das wäre der Durchschnitt aus 0 und 1, also 0,5. Sehr einfache Integralrechnung, die ich aus humanitären Gründen hier nicht vorführe, zeigt jedoch einen echten Mittelwert in Höhe von 0,33. Bezogen auf den echten Mittelwert habe ich durch die näherungsweise Durchschnittsbildung also einen Fehler von 50 % erzielt. Nimmt man noch einen Punkt hinzu, beispielsweise den Punkt auf halber Strecke mit dem Messwert 0,25, so findet man aus den jetzt vorhandenen drei Messwerten den gerundeten Mittelwert 0,42. Das ist schon besser, aber immer noch beträgt die Abweichung 25 %. Es ist also keineswegs selbstverständlich, dass ein angenäherter Mittelwert große Ähnlichkeiten mit dem tatsächlichen Mittelwert hat.

Manches andere kommt noch hinzu, denn aus dem Mittelwert, also der globalen Durchschnittstemperatur alleine kann man noch nicht auf die tatsächlichen klimatischen Verhältnisse schließen. Nehmen wir wieder ein fiktives Beispiel. In einem bestimmten Bereich der Welt gehe ich davon aus, dass zum Jahresbeginn eine Temperatur von 0 Grad Celsius herrscht, die sich im Verlauf des ersten Vierteljahres stetig und gleichmäßig auf 30 Grad Celsius erhöht, um dann wieder bis zum Ende des ersten Halbjahres auf 0 Grad abzusinken. Das Gleiche geschieht im zweiten Halbjahr, nur mit umgekehrtem Vorzeichen: Die Temperatur sinkt auf -30 Grad ab und erreicht pünktlich zum Jahresende wieder den Gefrierpunkt. Offenbar beträgt die jährliche Durchschnittstemperatur dieses Bereichs 0 Grad Celsius. Vergleicht man das mit einem anderen fiktiven Bereich, dessen Temperatur durchgängig bei 0 Grad liegt, so fällt auf, dass zwar beide Bereiche mit der gleichen jährlichen Durchschnittstemperatur geschlagen sind, aber offensichtlich sehr verschiedene klimatische Verhältnisse aufweisen. Die Durchschnittstemperatur alleine sagt nicht allzu viel aus.

Schon deshalb nicht, weil man zusätzlich den sogenannten Wärmeinseleffekt berücksichtigen muss: Städtische Regionen heizen sich aufgrund der Bebauung stärker auf als das ländliche Umland und man kann nicht davon ausgehen, dass diese Unterschiede weltweit angemessen berücksichtigt werden. Und selbstverständlich muss man gemessene Rohdaten gelegentlich nachbearbeiten – ein Prozess, der einen weiten Ermessensspielraum beinhaltet und gelegentlich dazu führt, dass nach der Bearbeitung der Daten eine stärkere Erwärmung vorliegt als vorher, je nach persönlicher Vorliebe und klimapolitischer Ausrichtung des Bearbeiters.

Das alles ist aber nicht weiter wichtig, denn entscheidend ist ja nicht die konkrete globale Durchschnittstemperatur, sondern nur die Änderungen der Temperatur, und um die festzustellen, braucht man die absoluten Temperaturen gar nicht, wie uns das Wissenschaftsmagazin „Quarks“ berichtet.

Anmerkung der EIKE Redaktion: Einen ähnlichen Quark als Beweisführung warum die Bestimmung der Anomalie genauer sei, als die Messung der Absoluttemperaturen und deren Veränderungen servierte der bekannte Klimafolgenforscher Stefan Rahmstorf seinen erstaunten Studenten vor ein paar Jahren bei einer Veranstaltung in Mainz (Details dazu hier). Unser Fazit: Weder der Quarks Journalist Lorentz noch der Klimafolgenforscher Rahmstorf scheinen mit den Grundrechenarten gut vertraut zu sein, wonach eine Differenz erst dann entsteht, wenn man mindestens 2 Absolutwerte voneinander abzieht.

Es sei viel sinnvoller, „sich statt der absoluten Temperaturen die Temperaturveränderungen über längere Zeiträume anzusehen. Denn Veränderungen sind mit wissenschaftlichen Methoden viel genauer zu messen als absolute Werte. Zur Veranschaulichung: Wer auf dem Gipfel des Mount Everest eine Hütte baut, kann mit einem Zollstock exakt ausmessen, um wie viele Zentimeter der höchste Berg der Welt dadurch „gewachsen“ ist, wohingegen die Angabe der absoluten Höhe mit einem viel größeren Fehler behaftet ist, denn der Meeresspiegel schwankt und die Erdkruste schwingt.“

Ich lasse gern die Frage außer Acht, warum ausgerechnet der Mount Everest als Standort der Hütte herhalten musste, da man nur selten etwas vom Hüttenbau auf seinem Gipfel gehört hat. Doch auch unabhängig davon ist das Beispiel etwas seltsam. Übertragen auf die Temperaturmessung würde das bedeuten, dass man an einem bestimmten Punkt nicht die Temperatur zu zwei verschiedenen Zeitpunkten messen muss, um dann die Differenz zu bestimmen, sondern dass die Temperatur zum ersten Zeitpunkt – das entspricht der eigentlichen Höhe des Mount Everest – völlig egal ist, weil man am untersuchten Punkt zum zweiten Zeitpunkt irgendeine Wärmemenge – das entspricht der Höhe der gebauten Hütte – zur Anwendung bringt und somit die Temperaturdifferenz ohnehin kennt. Eine Wärmemenge ist aber keine Hütte, die man irgendwo aufbaut, man bringt sie nicht in einem Rucksack mit und freut sich an der gestiegenen Temperatur. Diese Veranschaulichung hinkt ähnlich stark wie Annalena Baerbocks außenpolitische Ideen.

Der Sünder ist identifiziert

Ob Differenzen oder nicht, man muss auch der Frage nachgehen, warum die – in welcher Form auch immer – gemessenen Durchschnittstemperaturen gestiegen sind. Und die Antwort ist klar. „Hauptverursacher des Klimawandels,“ erklärt das Bundesumweltministerium seinen jüngeren Lesern, „sind die Menschen, vor allem in den Industriestaaten. Fabriken, Autos, Flugzeuge, die Beleuchtung der Häuser und Städte – all das braucht Energie in Form von Strom, Gas oder Benzin. Und wo Strom aus Kohle erzeugt oder Benzin und Gas verbrannt werden, entsteht das Treibhausgas Kohlendioxid.“ Da haben wir es. Es ist das Kohlendioxid, der Sünder ist identifiziert. Wenn beispielsweise der europäische Kontinent nicht im Sinne der Europäischen Union bald zum klimaneutralen Kontinent wird, also „so viele CO₂-Emissionen beseitigt, wie er produziert“, dann ist die Klimakatastrophe nicht mehr aufzuhalten und es bleibt uns nichts anderes übrig, als uns an den Straßen festzukleben und darauf zu warten, dass die Erhitzung den Asphalt zum Schmelzen bringt. Eine andere Möglichkeit gibt es nicht, denn andere Ursachen für die Entwicklung des globalen Klimas muss man nicht in Betracht ziehen.

Wo sollten sie auch sein? Niemanden muss es bedenklich stimmen, dass das Basisjahr für das bereits erwähnte 1,5-Grad-Ziel gerade das Jahr 1850 ist – genau das Jahr, das man üblicherweise mit dem Ende der Kleinen Eiszeit identifiziert. Dass es während einer Eiszeit, und sei es nur eine kleine, kälter sein dürfte als danach, kann außer Politikern und Journalisten des öffentlich-rechtlichen Rundfunks jeder verstehen und diese Erwärmung zählt zu den natürlichen Klimaphänomenen, nicht zu den menschengemachten. Niemanden muss stören, dass es so etwas wie Ozeanzyklen gibt, zu nennen wären vor allem die Pazifische Dekaden-Oszillation, abgekürzt PDO, die Atlantische Multidekaden-Oszillation, AMO, und die Nordatlantische Oszillation mit der Abkürzung NAO. Es handelt sich um langfristige natürliche Ozeanzyklen, deren Auswirkungen auf die Temperatur- und Klimaentwicklung nicht zu unterschätzen sind und die mit CO₂-Emissionen nichts zu tun haben. Selbstverständlich muss auch niemand die Bedeutung der Sonnenaktivität für das irdische Klima zur Kenntnis nehmen, denn wir haben ja die CO₂-Erklärung, wozu soll man sich dann noch mit empirischer Wissenschaft plagen? Und ohne Frage ist es hilfreich, die Existenz von Warmzeiten in der Vergangenheit einfach zu ignorieren, zu einer Zeit, in der die CO₂-Emissionen vernachlässigt werden konnten, wie zum Beispiel während des Holozänen Thermischen Maximums, einer Zeitspanne von etwa 3000 Jahren, deren Ende 5500 Jahre zurückliegt und in der es wärmer war als heute. Ganz zu schweigen von der Römischen Warmzeit zur Zeit des antiken Rom oder der Mittelalterlichen Wärmeperiode während des Hochmittelalters um das Jahr 1000 n. Chr.. Nichts davon hatte etwas mit CO₂-Emissionen zu tun. Wer sämtliche Klimaveränderungen auf nur eine einzige Ursache schieben will, darf mit Recht als Klimawandelleugner bezeichnet werden, da er die Existenz eines Klimawandels vor dem Jahr 1850 bestreiten muss.

Doch wenigstens weiß man ganz genau, welche Auswirkungen die Steigerung der CO₂-Emissionen auf die globale Durchschnittstemperatur hat, auch wenn diese Temperatur mit leichten Ungewissheiten behaftet ist. Denn zu diesem Zweck bestimmt man die sogenannte Klimasensitivität als „die Veränderung der globalen mittleren Erdoberflächentemperatur im Gleichgewicht, das durch eine Verdoppelung der atmosphärischen CO₂-Konzentration bewirkt wird,“ wie man in einem Bericht des IPCC auf Seite 14 lesen kann. Doch wie seltsam: Diese Sensitivität liegt nach Angaben der obersten Klimabewegten wahrscheinlich in einer Spanne zwischen 1,5 und 4,5 Grad Celsius, niemand weiß es genau. „Aufgrund fehlender Übereinstimmung der Werte aus den beurteilten Anhaltspunkten und Studien kann kein bester Schätzwert für die Gleichgewichts-Klimasensitivität angegeben werden,“ heißt es im gleichen Bericht; man weiß also nicht, welchen Mittelwert man hier sinnvollerweise annehmen muss. So klar sind die Grundlagen der Klimapolitik.

Und wie gelangt man nun zu Aussagen über die zukünftige Klimaentwicklung? Mit einem einfachen Hilfsmittel, das schon im Verlauf der sonderbaren Covid-Pandemie seine Durchschlagskraft bewiesen hat, zumindest im Hinblick auf politische Fehlentscheidungen: Die computerbasierten Modelle sind das Mittel der Wahl. Allerdings soll es auch Forscher wie Bjorn Stevens vom Max-Planck-Institut für Meteorologie geben, der gegenüber dem Spiegel seine Frustration über die Qualität der Vorhersagen der globalen Erwärmung zum Ausdruck brachte: Sie seien so unpräzise wie eh und je. „Unsere Computer sagen nicht einmal mit Sicherheit voraus, ob die Gletscher in den Alpen zu- oder abnehmen werden.“ Das nenne ich Genauigkeit, und Stevens sah das nicht anders – allerdings mit einer weitgeöffneten Hintertür: „Die Genauigkeit der Vorhersagen ist nicht besser geworden, aber unser Vertrauen in sie ist gewachsen.“ Wir wissen zwar nicht mehr als früher, aber dafür glauben wir jetzt umso fester daran.

Wir haben also die Zielgröße der globalen Durchschnittstemperatur, sei es in absoluten Werten oder in Form von Temperaturdifferenzen, die zwangsläufig mit starken Ungenauigkeiten behaftet ist und zudem noch von interessierten Klimawissenschaftlern nachkorrigiert werden muss und kann. Wir haben mit den CO₂-Emissionen eine einzige Ursache für die Klimaerwärmung, die alle anderen jahrtausendealten Klimafaktoren außer Kraft gesetzt hat. Und wir haben Klimamodelle, die zu keinen brauchbaren Voraussagen in der Lage sind, denen man aber unbedingt vertrauen soll. Das sind beruhigende Verhältnisse.

‚Die Ära des Klimatodes‘

Ich will aber nicht kleinlich sein und für einen Moment all das glauben, was man uns immer und immer wieder erzählt, denn schließlich gilt: „The science is settled“. Wenn nun allerdings erhöhte Temperaturen eine so schlimme Wirkung haben und die Lebensqualität so sehr und so negativ beeinflussen, dass man sich im Vorfeld auf Straßen kleben muss, dann sollten auch heute schon temperaturbedingte Unterschiede in den Lebensverhältnissen zu bemerken sein. Insbesondere dürften sich diese Unterschiede in den verschiedenen Lebenserwartungen widerspiegeln. Immerhin schrieb man in der Frankfurter Rundschau schon im letzen Sommer, „dass wir uns bereits in der Ära des Klimatodes und der Klimazerstörung befinden“.

Nun kann man aber, da es offenbar möglich ist, eine globale Durchschnittstemperatur zu bestimmen, sich auch an die nationalen Durchschnittstemperaturen wagen. Eine Auflistung dieser Temperaturen von 2021, erstellt auf der Basis von Daten der Weltbank, kann man leicht finden. Und diesen jährlichen Durchschnittstemperaturen kann man nun die Lebenserwartung der Menschen in den einzelnen Ländern, aufgeteilt nach Frauen und Männern, gegenüberstellen – zu Diversen waren leider keine Daten verfügbar. Die folgende Tabelle zeigt die Werte von 39 europäischen Staaten. Man muss sie nicht im Einzelnen studieren, sie werden anschließend graphisch aufbereitet.

Ein Bild, das Tisch enthält. Automatisch generierte Beschreibung
Ich erlaube mir, die Klimaproblematik für kurze Zeit beiseite zu lassen und ein völlig anderes Problem ins Auge zu fassen. Oft wird gesprochen vom Gender Pay Gap, also von der Lohnschere zwischen Männern und Frauen. Wie die Tabelle zeigt, ist aber das Phänomen des Gender Life Gap sehr real, denn in allen 39 Staaten haben Frauen eine deutlich höhere Lebenserwartung als Männer, im Durchschnitt sind es zwischen fünf und sechs Jahren. Wie kann man das dulden? Hier besteht offenbar Handlungsbedarf: Karl Lauterbach, übernehmen Sie!

Zurück zum Klima! In den folgenden beiden Abbildungen sind die Daten veranschaulicht, jeder Punkt entspricht einer der Kombinationen aus Temperatur und Lebenserwartung.

Ein Bild, das Text, Himmel, Screenshot enthält. Automatisch generierte Beschreibung

Wie man sieht, hält sich die Deutlichkeit des Zusammenhangs in engen Grenzen. Bei Frauen und bei Männern sind hohe Lebenserwartungen sowohl im niedrigen als auch im hohen Temperaturbereich zu verzeichnen, und zwischen 5 Grad und 15 Grad haben wir eine völlig ungeregelte Punktwolke: Es gibt keinen Zusammenhang. Das sieht man noch deutlicher, wenn man die sogenannten Trendgeraden einzeichnet. Ihre Steigungen sind ausgesprochen gering, im Falle der Männer liegt sie bei 0,13, für die Frauen hat man sogar nur 0,04. Man könnte auf die Idee verfallen, dass ein zwar leichter, aber immerhin vorhandener positiver Einfluss der Durchschnittstemperatur auf die Lebenserwartung besteht, doch das wäre nur eine Illusion. Es ist nämlich möglich, mit dem sogenannten Korrelationskoeffizienten ein Maß für die Stärke des Zusammenhangs zu berechnen, und dieser Koeffizient liegt in der Riege der Männer bei 0,13, in der Klasse der Frauen sogar nur bei 0,07. Ein Koeffizient in der Nähe von 1 beschreibt einen sehr starken Zusammenhang, während man bei dem Wert 0 überhaupt keinen Zusammenhang feststellen kann. Hier liegen wir sehr nah bei 0, man darf daher nicht davon ausgehen, dass die Temperatur einen nennenswerten Einfluss auf die Lebenserwartung hat.

Dass bei einer Erhöhung der Durchschnittstemperatur die Lebenserwartung sinken muss, lässt sich also nicht zeigen. Immerhin liegt beispielsweise die maltesische Durchschnittstemperatur mehr als 10 Grad über der deutschen, und auch die maltesischen Lebenserwartungen übersteigen die der Deutschen. Doch man könnte einwenden, dass die Lebenserwartung nicht nur von der Temperatur abhängen kann, sondern auch noch von anderen Faktoren wie zum Beispiel der Qualität des Gesundheitssystems und dem Geisteszustand des Gesundheitsministers. Wie wahr! Genau deshalb ist es nicht übermäßig sinnvoll, sich nur und ausschließlich auf klimatische Faktoren zu konzentrieren, und genau deshalb ist es auch nicht sinnvoll, die klimatischen Betrachtungen selbst mit heiliger Entschlossenheit auf den einen Faktor der CO₂-Emissionen zu fokussieren. Es handelt sich um komplexe Phänomene, die sich nicht monokausal erklären lassen, auch dann nicht, wenn man sich jeden Tag auf eine neue Straße klebt.

Und die Gletscher?

Weitere Einwände kann man schon hören, bevor sie geäußert werden. Wir wissen doch, dass durch die Erhöhung der CO₂-Emissionen extreme Wetterereignisse gefördert werden, was dann wieder seinen Niederschlag in der Lebenserwartung finden muss. Das ist einleuchtend, vor allem dann, wenn man bedenkt, dass Björn Lomborg kürzlich die deutliche Abnahme der Todesopfer bei Extremwetter im Verlauf der letzten einhundert Jahre gezeigt hat: „Um mehr als 90 Prozent sind die Opferzahlen zurückgegangen, obwohl die Weltbevölkerung sich in der gleichen Zeit vervierfacht hat,“ weiß die „Welt“ zu berichten, und die jämmerlichen Versuche der Tagesschau-Faktenfinder, diese Aussage zu entkräften, haben nur dazu beigetragen, den Ruf der Tagesschau noch weiter zu unterminieren.

Und die Gletscher? Was ist mit den Gletschern? Die werden doch ohne Frage stetig kleiner! Das bestreitet kaum jemand, es ist aber nichts Besonderes, wie der Schweizer Geologe Christian Schlüchter herausgefunden hat. „Unsere Gletscher, so Schlüchters zentrale Erkenntnis, waren in den letzten 10 000 Jahren die meiste Zeit kleiner als 2005. Es gab mindestens zwölf Wärmephasen seit der letzten Eiszeit. … Seine Forschungen zeigen zudem: Die Klimaerwärmung ist kein linearer, sondern ein exponentieller Prozess mit vielen Faktoren, über deren Wechselwirkung wir zu wenig wissen.“ Und das sind Erkenntnisse, die auf empirischer Wissenschaft beruhen, nicht auf Modellrechnungen.
Aber die Wissenschaft ist sich doch zu 97 % über den vollständigen Einfluss des Menschen auf den Klimawandel einig! Das wird immer gern behauptet. Barack Obama hat diese Zahl vor zehn Jahren verbreitet und diese Quelle macht die Aussage keineswegs besser. Sie geht zurück auf eine Arbeit des australischen Psychologen John Cook, die darauf beruhte, dass er alle untersuchten wissenschaftlichen Artikel, die sich gar nicht über den menschlichen Einfluss geäußert haben, ignorierte und ansonsten jeden Artikel, der irgendeinen menschlichen Einfluss bejahte, egal in welcher Größenordnung, zu seinen 97 % zählte. Das war Voodoo-Wissenschaft vom Feinsten.

„I don’t want you to be hopeful, I want you to panic,“ sagte einst Greta Thunberg, der lebende Beweis dafür, dass pures Schuleschwänzen, verbunden mit Nichtwissen, einer Karriere nicht im Weg stehen muss, solange man die nötigen Phrasen beherrscht. Und sie hatte recht. In Panik verfallen müssen wir allerdings nicht, weil uns der Boden unter den Füßen verbrennen wird, sondern weil eine modellbasierte Ideologie sich zur alles beherrschenden Religion aufschwingen konnte, die katastrophale Auswirkungen auf das Leben der Menschen und auf ihren in der Regel bescheidenen Wohlstand hat. Und „How dare you?!“ rief sie den Politikern zu. Auch diese Frage ist berechtigt, aber nicht etwa, weil man ihr, wie sie sagte, ihre Träume und ihre Kindheit gestohlen hat; das haben sie und ihre Eltern schon ganz alleine geschafft. „Wie könnt ihr es wagen?“, muss man alle die fragen, die sich anmaßen, über unser Leben, über unsere Lebensweise zu entscheiden, und alle, die seit Jahr und Tag nichts anderes tun, als ihre Propaganda zum Untergang der Welt zu verbreiten. Ich darf dieser Propaganda einen Ausspruch des bereits angeführten Geologen Christian Schlüter entgegen halten: „Die Erfindung des Teufels war die grandioseste Erfindung, die die Menschheit je gemacht hat. Man kann viel Geld verdienen, wenn man ihn an die Wand malt.“ Es wird Zeit, die Wände wieder von diesen Bemalungen zu befreien.

Der Beitrag erschien zuerst bei Reitschuster.de hier

 

 




Die schmutzigen Geheimnisse im Inneren der Blackbox-Klimamodelle

Greg Chapman

„Die Welt hat weniger als ein Jahrzehnt Zeit, um den Kurs zu ändern und eine unumkehrbare ökologische Katastrophe zu vermeiden, warnte die UN heute.“ The Guardian 28. November 2007

„Es ist schwer, Vorhersagen zu treffen, besonders über die Zukunft.“ Yogi Berra

Einführung:

Das weltweite Aussterben aufgrund der globalen Erwärmung wurde schon öfter vorhergesagt als der Klimaaktivist Leo DiCaprio mit seinem Privatjet geflogen ist.  Aber woher kommen diese Vorhersagen? Wenn man davon ausginge, dass sie einfach aus der bekannten Beziehung zwischen CO2 und der Absorption des Sonnenenergiespektrums errechnet wurden, würde man aufgrund der logarithmischen Natur der Beziehung nur einen Anstieg von etwa 0,5 °C gegenüber den vorindustriellen Temperaturen als Folge einer CO2-Verdoppelung erwarten:

Abbildung 1: Inkrementeller Erwärmungseffekt allein durch CO2 [1]

Der von den Modellen vorhergesagte unkontrollierte Temperaturanstieg von 3-6 °C und mehr hängt von den gekoppelten Rückkopplungen vieler anderer Faktoren ab, darunter Wasserdampf (das wichtigste Treibhausgas), Albedo (der Anteil der von der Oberfläche reflektierten Energie – z. B. mehr/weniger Eis oder Wolken, mehr/weniger Reflexion) und Aerosole, um nur einige zu nennen, die theoretisch die geringe zusätzliche CO2-Erwärmungswirkung verstärken können. Aufgrund der Komplexität dieser Zusammenhänge sind Vorhersagen nur mit Klimamodellen möglich, da sie nicht direkt berechnet werden können.

Der Zweck dieses Artikels besteht darin, dem Laien zu erklären, wie Klimamodelle funktionieren, und nicht darin, sich mit den Problemen zu befassen, die der eigentlichen Klimawissenschaft zugrunde liegen, da die Modelle die primären „Beweise“ sind, die von denen verwendet werden, die eine Klimakrise behaupten. Das erste Problem ist natürlich, dass keine Modellprognose ein Beweis für irgendetwas ist. Es handelt sich lediglich um eine Vorhersage. Deshalb ist es wichtig zu verstehen, wie die Vorhersagen erstellt werden, welche Annahmen ihnen zugrunde liegen und wie zuverlässig sie sind.

Wie funktionieren Klimamodelle?

Um die Erde in einem Computermodell abzubilden, wird ein Gitter aus Zellen vom Boden des Ozeans bis zum oberen Rand der Atmosphäre erstellt. Innerhalb jeder Zelle sind die Komponenteneigenschaften, wie Temperatur, Druck, Feststoffe, Flüssigkeiten und Dampf, einheitlich.

Die Größe der Zellen variiert zwischen den Modellen und innerhalb der Modelle. Idealerweise sollten sie so klein wie möglich sein, da sich die Eigenschaften in der realen Welt ständig ändern, aber die Auflösung wird durch die Rechenleistung begrenzt. In der Regel beträgt die Fläche der Zelle etwa 100×100 km², obwohl es über solche Entfernungen erhebliche atmosphärische Schwankungen gibt, so dass jede der physikalischen Eigenschaften innerhalb der Zelle zu einem einzigen Wert gemittelt werden muss. Dies führt zu einem unvermeidlichen Fehler in den Modellen, bevor man sie überhaupt laufen lässt.

Die Anzahl der Zellen in einem Modell variiert, aber die typische Größenordnung liegt bei etwa 2 Millionen.

Abbildung 2: Typisches Gitter, wie es in Klimamodellen verwendet wird [2]

Sobald das Gitter konstruiert ist, müssen die Komponenteneigenschaften jeder dieser Zellen bestimmt werden. Es gibt natürlich keine 2 Millionen Datenstationen in der Atmosphäre und im Ozean. Derzeit gibt es etwa 10.000 Datenpunkte (Wetterstationen am Boden, Ballons und Ozeanbojen), und wir verfügen über Satellitendaten seit 1978, aber die Abdeckung ist historisch gesehen schlecht. Das hat zur Folge, dass bei der Initialisierung eines Klimamodells, das vor 150 Jahren beginnt, fast keine Daten für den größten Teil der Landoberfläche, die Pole und die Ozeane zur Verfügung stehen, und nichts über der Oberfläche oder in den Tiefen der Ozeane. Dies sollte als ein großes Problem verstanden werden.

Abbildung 3: Globale Wetterstationen um 1885 [3]

Nach der Initialisierung durchläuft das Modell eine Reihe von Zeitschritten. Bei jedem Schritt werden für jede Zelle die Eigenschaften der benachbarten Zellen verglichen. Wenn in einer Zelle ein höherer Druck herrscht, entsteht eine Strömung von dieser Zelle zur nächsten. Wenn sie eine höhere Temperatur hat, erwärmt sie die nächste Zelle (während sie sich selbst abkühlt). Dies kann dazu führen, dass Eis schmilzt oder Wasser verdampft, aber die Verdunstung hat eine kühlende Wirkung. Wenn Polareis schmilzt, wird weniger Energie reflektiert, was zu einer weiteren Erwärmung führt. Aerosole in der Zelle können je nach Art zu einer Erwärmung oder Abkühlung sowie zu einer Zunahme oder Abnahme der Niederschläge führen.

Erhöhte Niederschläge können das Pflanzenwachstum steigern, ebenso wie eine Erhöhung des CO2-Gehalts. Dadurch ändern sich die Albedo der Oberfläche und die Luftfeuchtigkeit. Höhere Temperaturen führen zu einer stärkeren Verdunstung aus den Ozeanen, was die Ozeane abkühlt und die Bewölkung erhöht. Klimamodelle können Wolken aufgrund der geringen Auflösung des Gitters nicht modellieren, und ob Wolken die Temperatur erhöhen oder verringern, hängt von der Art der Wolke ab.

Es ist kompliziert! Natürlich geschieht dies alles in drei Dimensionen und in jeder Zelle, was zu erheblichen Rückkopplungen führt, die bei jedem Zeitschritt berechnet werden müssen.

Die Zeitschritte können so kurz wie eine halbe Stunde sein. Denken Sie daran, dass der Terminator, der Punkt, an dem der Tag in die Nacht übergeht, am Äquator mit etwa 1700 km/h über die Erdoberfläche wandert, so dass selbst halbstündige Zeitschritte weitere Fehler in die Berechnung einbringen, aber auch hier ist die Rechenleistung eine Einschränkung.

Während die Temperatur- und Druckänderungen zwischen den Zellen nach den Gesetzen der Thermodynamik und der Strömungsmechanik berechnet werden, werden viele andere Änderungen nicht berechnet. Sie beruhen auf der Parametrisierung. So variiert beispielsweise der Albedoantrieb von Eiskappen über den Amazonasdschungel und die Saharawüste bis hin zu den Ozeanen und der Wolkendecke sowie allen dazwischen liegenden Reflexionstypen. Diese Eigenschaften werden einfach zugewiesen, und ihre Auswirkungen auf andere Eigenschaften werden aus Nachschlagetabellen ermittelt, nicht berechnet. Die Parametrisierung wird auch für die Auswirkungen von Wolken und Aerosolen auf Temperatur und Niederschlag verwendet. Alle wichtigen Faktoren, die auf einer Untergitter-Skala auftreten, wie Stürme und Ozeanwirbel und -strömungen, müssen ebenfalls parametrisiert werden, wobei eine gemittelte Auswirkung für die gesamte Gitterzelle verwendet wird. Während die Auswirkungen dieser Faktoren auf Beobachtungen beruhen, ist die Parametrisierung eher ein qualitativer als ein quantitativer Prozess und wird von den Modellierern selbst oft als eine Kunst beschrieben, die weitere Fehler mit sich bringt. Die direkte Messung dieser Effekte und ihre Verknüpfung mit anderen Faktoren ist äußerst schwierig und nur unzureichend bekannt.

Vor allem in der Atmosphäre kann es zu scharfen Grenzschichten kommen, die die Modelle zum Absturz bringen. Diese starken Schwankungen müssen geglättet werden.

Auch die Energieübertragung zwischen Atmosphäre und Ozean ist problematisch. Die energiereichsten Wärmeübertragungen finden auf Untergitter-Skalen statt, die über viel größere Gebiete gemittelt werden müssen.

Die Wolkenbildung hängt von Prozessen im Millimeterbereich ab und lässt sich einfach nicht modellieren. Wolken können sowohl wärmen als auch kühlen. Jede Erwärmung erhöht die Verdunstung (die die Oberfläche abkühlt), was zu einer Zunahme von Wolkenpartikeln führt. Auch Aerosole beeinflussen die Wolkenbildung auf Mikroebene.  All diese Effekte müssen in den Modellen gemittelt werden.

Wenn die Gitterannäherungen mit jedem Zeitschritt kombiniert werden, kommen weitere Fehler hinzu, und bei halbstündigen Zeitschritten über 150 Jahre sind das über 2,6 Millionen Zeitschritte! Leider sind diese Fehler nicht selbstkorrigierend. Stattdessen akkumuliert sich diese numerische Streuung im Laufe des Modelllaufs, aber es gibt ein Verfahren, welche die Klimamodellierer einsetzen, um dies zu überwinden. Hier folgt eine Kurzbeschreibung desselben.

Abbildung 4: Wie Gitterzellen mit Nachbarzellen wechselwirken [4]

Initialisierung des Modells

Nach der Erstellung eines Computermodells jeglicher Art erfolgt ein Initialisierungsprozess, bei dem das Modell daraufhin überprüft wird, ob die Ausgangswerte in den einzelnen Zellen physikalisch miteinander vereinbar sind. Wenn man zum Beispiel eine Brücke modelliert, um zu prüfen, ob die Konstruktion starken Winden und Erdbeben standhält, muss man sicherstellen, dass das Modell alle erwarteten Spannungen und Dehnungen einer statischen Struktur erfüllt, bevor man ihm andere äußere Kräfte als die Schwerkraft auferlegt. Denn wenn die Ausgangsbedingungen des Modells nicht stimmen, wie kann man sich dann darauf verlassen, dass es vorhersagen kann, was passiert, wenn äußere Kräfte auf das Modell einwirken?

Glücklicherweise sind bei den meisten Computermodellen die Eigenschaften der Komponenten recht gut bekannt und die Ausgangsbedingungen sind statisch, wobei die einzige äußere Kraft die Schwerkraft ist. Wenn Ihre Brücke bei der Initialisierung nicht stehen bleibt, ist entweder mit dem Modell oder der Konstruktion etwas nicht in Ordnung!

Bei Klimamodellen haben wir zwei Probleme mit der Initialisierung. Erstens haben wir, wie bereits erwähnt, nur sehr wenige Daten für den Zeitpunkt Null, wann immer wir ihn gewählt haben. Zweitens befindet sich das Modell zum Zeitpunkt Null nicht in einem statischen Gleichgewichtszustand, wie dies bei so ziemlich jedem anderen Computermodell der Fall ist, das entwickelt worden ist. Zum Zeitpunkt Null könnte es einen Schneesturm in Sibirien, einen Taifun in Japan, Monsunregen in Mumbai und eine Hitzewelle in Südaustralien geben, ganz zu schweigen von der einen oder anderen Vulkanexplosion, die alle innerhalb eines Tages oder so verschwunden sein könnten.

Es gibt nie einen Zeitpunkt, an dem sich das Klima stabilisiert, so dass es unmöglich ist, Klimamodelle bei der Initialisierung zu validieren.

Das Beste, worauf die Klimamodellierer hoffen können, ist, dass ihr glänzendes neues Modell nicht schon in den ersten paar Zeitschritten abstürzt.

Das Klimasystem ist chaotisch, was im Grunde bedeutet, dass jedes Modell die Zukunft schlecht vorhersagen kann – man kann nicht einmal ein Modell einer Lottokugelmaschine erstellen (die ein vergleichsweise viel einfacheres und kleineres interagierendes System ist) und damit das Ergebnis der nächsten Ziehung vorhersagen.

Wenn also die Klimamodelle mit wenig mehr als Vermutungen statt mit tatsächlichen Beobachtungsdaten zum Zeitpunkt Null gefüllt werden und die Fehler mit jedem Zeitschritt zunehmen, wie gehen die Klimamodellierer dann mit diesem Problem um?

Vergleich mit der Historie

Wenn das System, für das ein Computermodell erstellt werden soll, bereits seit einiger Zeit in Betrieb ist, kann man diese Daten nutzen, um das Modell abzustimmen, und dann die Vorhersage vor Ablauf dieses Zeitraums starten, um zu sehen, wie gut es passt, bevor man Vorhersagen daraus ableitet. Im Gegensatz zu anderen Computermodellierern nennen die Klimamodellierer dies „Hindcasting“*, weil dies nicht so klingt, als würden sie die Modellparameter manipulieren, um die Daten anzupassen.

[*Das könnte man mit „Nachhersage“ übersetzen, aber ein guter deutscher Terminus ist nicht bekannt. Vielleicht hat ein Kommentator eine Idee? A. d. Übers.]

Die Theorie besagt, dass, obwohl die Konstruktion von Klimamodellen viele Mängel aufweist, wie z. B. große Gittergrößen, lückenhafte Daten von zweifelhafter Qualität in den ersten Jahren und schlecht verstandene physikalische Phänomene, die das parametrisierte Klima antreiben, dass man das Modell während des Hindcasting innerhalb der Parameterunsicherheiten abstimmen kann, um alle diese Mängel zu überwinden.

Es stimmt zwar, dass man das Modell so abstimmen kann, dass es zumindest mit einigen Komponenten der Geschichte einigermaßen übereinstimmt, aber die Übereinstimmung ist nicht einzigartig.

Als im letzten Jahrhundert erstmals Computermodelle verwendet wurden, sagte der berühmte Mathematiker John Von Neumann:

Mit vier Parametern kann ich einen Elefanten anpassen, mit fünf kann ich ihn mit dem Rüssel wackeln lassen“.

In Klimamodellen gibt es Hunderte von Parametern, die auf die Geschichte abgestimmt werden können. Das bedeutet, dass es eine fast unendliche Anzahl von Möglichkeiten gibt, eine Anpassung zu erreichen. Ja, viele davon sind unphysikalisch und werden verworfen, aber es gibt keine eindeutige Lösung, da die Ungewissheit bei vielen Parametern groß ist, und solange man innerhalb der Ungewissheitsgrenzen abstimmt, können immer noch unzählige Übereinstimmungen gefunden werden.

Ein weiterer Fehler beim Abgleich mit der Vergangenheit ist die Länge einiger natürlicher Zyklen. Die Ozeanzirkulation beispielsweise erstreckt sich über Hunderte von Jahren, und wir haben nicht einmal 100 Jahre an Daten, mit denen wir sie abgleichen könnten.

Außerdem ist es schwierig, alle Klimavariablen abzugleichen. Während die globale durchschnittliche Temperatur das Hauptziel des historischen Abgleichs ist, sind andere Daten wie troposphärische Temperaturen, regionale Temperaturen und Niederschläge sowie tageszeitliche Tiefst- und Höchstwerte nur schlecht abzugleichen.

Kann der historische Abgleich der Hauptvariablen, der durchschnittlichen globalen Temperatur, die mit jedem Zeitschritt des Modells unweigerlich auftretenden Fehler eindämmen?

Vorhersagen

Nehmen wir eine Schrotflinte. Wenn der Abzug betätigt wird, bewegen sich die Kügelchen aus der Patrone den Lauf hinunter, aber es gibt auch eine seitliche Bewegung der Kügelchen. Der Flintenlauf hat die Aufgabe, die seitlichen Bewegungen zu dämpfen und die Streuung zu verringern, wenn die Kugeln den Lauf verlassen. Es ist bekannt, dass Schrotflinten auf große Entfernungen nur eine begrenzte Treffsicherheit haben und dass das Schussbild mit der Entfernung zunimmt.  Der Zeitraum, in dem ein Klimamodell in die Geschichte eingeht, ist wie der Lauf einer Schrotflinte. Was passiert also, wenn das Modell vom Anpassungs- in den Vorhersagemodus wechselt?

Abbildung 5: IPCC-Modelle im Vorhersagemodus für die mittlere Troposphäre im Vergleich zu Ballon- und Satellitenbeobachtungen [5]

Wie die Gewehrkugeln, die den Lauf verlassen, übernimmt die numerische Streuung in der Vorhersagephase die Führung. Jedes der 73 Modelle in Abbildung 5 wurde in der Vergangenheit abgeglichen, aber außerhalb des Anpassungszeitraums weichen sie schnell voneinander ab.

Nun kann höchstens eines dieser Modelle richtig sein, wahrscheinlicher ist jedoch, dass keines von ihnen richtig ist. Wäre dies ein echter wissenschaftlicher Prozess, würden die wärmsten zwei Drittel der Modelle vom IPCC abgelehnt und weitere Untersuchungen auf die Modelle konzentriert, die den Beobachtungen am nächsten kommen. Das wird aber aus mehreren Gründen nicht getan.

Erstens würde eine Ablehnung der meisten Modelle in der Gemeinschaft der Klimawissenschaftler für Empörung sorgen, vor allem bei den abgelehnten Teams, die daraufhin ihre Finanzierung verlieren würden. Noch wichtiger ist, dass der so genannte 97 %-Konsens sofort in sich zusammenfallen würde.

Zweitens, wenn die wärmsten Modelle verworfen würden, läge die Prognose für 2100 bei einem Anstieg von etwa 1,5°C (der überwiegend auf die natürliche Erwärmung zurückzuführen ist), und es gäbe keine Panik mehr, und der „Gravy Train“ wäre beendet.

Wie also sollte das IPPC diese große Bandbreite an Prognosen miteinander in Einklang bringen?

Stellen Sie sich vor, Sie wollten wissen, wie hoch der Wert von Bitcoin in 10 Jahren sein wird, damit Sie heute eine Investitionsentscheidung treffen können. Sie könnten sich an einen Wirtschaftswissenschaftler wenden, aber wir alle wissen, wie nutzlos deren Vorhersagen sind. Also konsultieren Sie stattdessen einen Astrologen, aber Sie machen sich Sorgen, ob Sie Ihr ganzes Geld auf eine einzige Vorhersage setzen sollten. Um auf Nummer sicher zu gehen, konsultieren Sie 100 Astrologen, aber die geben Ihnen eine sehr große Bandbreite an Vorhersagen. Was sollen Sie nun tun? Sie könnten tun, was der IPCC tut, und einfach den Durchschnitt aller Vorhersagen bilden.

Aber: Man kann die Genauigkeit von Müll nicht verbessern, indem man ihn mittelt.

Ein alternativer Ansatz

Klimamodellierer behaupten, dass eine Anpassung an die Geschichte ohne Einbeziehung des CO2-Antriebs nicht möglich ist. Das mag stimmen, wenn man den hier beschriebenen Ansatz mit seinen vielen Annäherungen verwendet und das Modell nur auf einen einzigen Bezugspunkt (die Temperatur) abstimmt und Abweichungen von anderen (wie der troposphärischen Temperatur) ignoriert, aber analytische (im Gegensatz zu numerischen) Modelle haben Übereinstimmungen ohne CO2-Antrieb erzielt. Dabei handelt es sich um Modelle, die rein auf historischen Klimazyklen beruhen und die Oberschwingungen mit Hilfe einer mathematischen Technik der Signalanalyse ermitteln, die lang- und kurzfristige natürliche Zyklen mit unterschiedlichen Perioden und Amplituden zerlegt, ohne Änderungen der CO2-Konzentration zu berücksichtigen.

In Abbildung 6 wird ein Vergleich zwischen den IPCC-Vorhersagen und der Vorhersage eines einzigen analytischen harmonischen Modells vorgenommen, das nicht von der CO2-Erwärmung abhängt. Eine Übereinstimmung mit der Geschichte kann durch die harmonische Analyse erreicht werden und bietet eine viel konservativere Vorhersage, die im Gegensatz zu den IPCC-Modellen die aktuelle Pause im Temperaturanstieg korrekt vorhersagt. Mit diesem Beispiel soll nicht behauptet werden, dass dieses Modell genauer ist – es ist nur ein weiteres Modell – sondern es soll mit dem Mythos aufgeräumt werden, dass es keine Möglichkeit gibt, die Geschichte ohne den anthropogenen CO2-Anstieg zu erklären, und es soll gezeigt werden, dass es möglich ist, die Temperaturänderungen mit natürlichen Schwankungen als vorherrschendem Faktor zu erklären.

Figure 6: Comparison of the IPCC model predictions with those from a harmonic analytical model [6]

Abbildung 6: Vergleich der Vorhersagen des IPCC-Modells mit denen eines harmonischen analytischen Modells [6].

Zusammengefasst:

● Klimamodelle können aufgrund mangelnder Daten und eines chaotischen Anfangszustands nicht durch eine Initialisierung validiert werden.

● Die Modellauflösung ist zu gering, um viele Klimafaktoren abzubilden.

● Viele der Antriebsfaktoren sind parametrisiert, da sie von den Modellen nicht berechnet werden können.

● Unsicherheiten bei der Parametrisierung bedeuten, dass es keine eindeutige Lösung für das History Matching gibt.

● Die numerische Streuung über die Phase der historischen Anpassung hinaus führt zu einer großen Divergenz in den Modellen.

● Das IPCC lehnt es ab, Modelle zu verwerfen, die in der Vorhersagephase nicht mit den Beobachtungsdaten übereinstimmen – und das sind fast alle Modelle.

Die Frage ist nun, ob Sie das Vertrauen haben, Billionen von Dollar zu investieren und den Lebensstandard von Milliarden von Menschen zu senken, um die von den Klimamodellen vorhergesagte globale Erwärmung zu stoppen, oder ob wir uns einfach an die natürlichen Veränderungen anpassen sollten, wie wir es immer getan haben.

Greg Chapman  is a former (non-climate) computer modeler.

Footnotes

[1] https://www.adividedworld.com/scientific-issues/thermodynamic-effects-of-atmospheric-carbon-dioxide-revisited/

[2] https://serc.carleton.edu/eet/envisioningclimatechange/part_2.html

[3] https://climateaudit.org/2008/02/10/historical-station-distribution/

[4] http://www.atmo.arizona.edu/students/courselinks/fall16/atmo336/lectures/sec6/weather_forecast.html

[5] https://www.drroyspencer.com/2013/06/still-epic-fail-73-climate-models-vs-measurements-running-5-year-means/

Während die Klimamodelle auf die Temperaturen abgestimmt sind, sagen sie einen troposphärischen Hotspot voraus, den es nicht gibt. Dies allein sollte die Modelle ungültig machen.

[6] https://wattsupwiththat.com/2012/01/09/scaffeta-on-his-latest-paper-harmonic-climate-model-versus-the-ipcc-general-circulation-climate-models/

Link: https://wattsupwiththat.com/2022/11/10/the-dirty-secrets-inside-the-black-box-climate-models/

Übersetzt von Christian Freuer für das EIKE

 




Pandemie der Dummheit.

Schon in der 2007 erschienenen ersten Auflage meines Buches „Öko-Nihilismus“ habe ich davor gewarnt, man werde wohl bald nicht mehr zwischen Computersimulationen mathematischer Modelle und der realen Welt unterscheiden können. Inzwischen ist die Konfusion Realität. Seit der im Auftrag des Club of Rome erstellten Computersimulations-Studie „Die Grenzen des Wachstums“ (1972) werden staatliche Eingriffe in Grundrechte wie das Recht auf Privateigentum sowie Meinungs- und Bewegungsfreiheit immer öfter mit dem Verweis auf theoretische Modelle eines angeblich exponentiellen Wachstums von Problemen wie Umweltbelastung, Rohstoffverbrauch und neuerdings Virusinfektionen gerechtfertigt. Dabei tritt unbegrenztes exponentielles Wachstum sowohl in der Natur als auch in der Gesellschaft nur sehr selten auf. Bei einer Epidemie nur im theoretischen Fall, dass in der Bevölkerung keinerlei Abwehrkräfte vorhanden sind. In der Regel kommt es nur als aufsteigender Ast einer sigmoidalen Sättigungskurve vor. Das hat Angela Merkel nicht davon abgehalten, ein angeblich exponentielles Wachstum der SARS-CoV-2-Infektionen als Begründung für den von ihr unter Umgehung des Bundestages durchgedrückten Oster-Lockdown zu benutzen. Immerhin wurde sie schon am Folgetag, dem 24. März 2021, gezwungen, den drastischsten Teil ihres Beschlusses zumindest dem Anschein nach wieder zurück zu nehmen. In Wirklichkeit hält sie daran fest, im Einsperren der Menschen die einzig wirksame Maßnahme gegen die Verbreitung von Viren zu sehen.

Dabei zeigt der Vergleich zwischen Deutschland und dem US-Ferienparadies Florida, wo es seit dem letzten Sommer keinerlei Corona-bedingte Beschränkungen des täglichen Lebens gibt, dass Lockdowns keinerlei positiven Einfluss auf die Infektionskurven und die Anzahl der Todesopfer haben – negativen dagegen schon. In 98,4 Prozent der Paarvergleiche der Google-Bewegungsdaten von 87 Ländern und Regionen hat ein Lockdown keinerlei Einfluss auf die Entwicklung der Zahl der Covid-Toten, wo bei noch zu berücksichtigen wäre, dass viele der statistischen Covid-Opfer nicht an, sondern mit Covid (neben Vorerkrankungen) gestorben sind. Das ist das Ergebnis einer sauberen statistischen Analyse der ersten Covid-19-Welle vom 15. Februar bis zum 21. August 2020 (Savaris, R.F., Pumi, G., Dalzochio, J. & Kunst, R. (2021).

In Deutschland hat sich die Physikerin Viola Priesemann vom Göttinger Max-Planck-Institut für Dynamik und Selbstorganisation mit ihren Modellen der Ausbreitung von Covid-Epidemie-Wellen hervorgetan beziehungsweise wurde von unkritischen Massenmedien in die Rolle der Pythia gelobt. Viola Priesemann machte im Dezember 2020 auch als Mitverfasserin des Aufrufs „Contain Covid 19“ von sich reden, der im Januar 2021 zunächst im Fachmagazin „The Lancet“ erschien. Darin forderte sie zusammen mit Melanie Brinkmann, Sandra Ciesek und anderen einen radikalen EU-weiten Lockdown bis die positiven PCR-Tests auf täglich zehn von einer Million Einwohner gesunken sind. In Deutschland wurde dieser Appell von der überwiegend linksradikalen Bewegung „Zero Covid“ aufgegriffen. Zu den Erstunterzeichnern des Appells mit dem Titel „Das Ziel heißt null Infektionen. Für einen solidarischen europäischen Shutdown“ gehörten bekannte linksradikale Wiederholungstäter*Innen wie Georg Restle, Margarete Stokowski, Luisa Neubauer, Stefanie Sargnagel, Natascha Strobl, Rudolf Hickel, Frigga und Wolfgang Fritz Haug. Darin fordern sie einen grundlegenden Strategiewechsel. Der Versuch, die Pandemie durch eine Abflachung der Infektionskurve zu kontrollieren, sei gescheitert. Das Ziel müsse vielmehr lauten: „Gemeinsam runter auf null.“ Ob und wie weit das überhaupt realistisch ist, wird nicht gefragt. Umsetzen ließe sich die Forderung einer „solidarischen Pause von einigen Wochen“ nur mit totalitären Methoden, die darauf hinauslaufen, die Staatsbürger wie unmündige Kinder oder gar wie Sklaven zu behandeln. Aufs Ganze gehen, ist ja wohl die ursprüngliche Definition von Totalitarismus. Umso bedenklicher ist es, dass auch Regierungsmitglieder (wie zuletzt Bundesgesundheitsminister Jens Spahn mit seiner Forderung eines zweiwöchigen Total-Lockdown) sich immer öfters der Argumentation von „Zero Covid“ anschließen. Die bekannteste Definition der Dummheit lautet bekanntlich, von der Wiederholung oder gar Steigerung einer unwirksamen Maßnahme bessere Ergebnisse zu erwarten. Aber vielleicht ist die Kontrolle der Epidemie gar nicht das Ziel der Bundesregierung…

Inzwischen hat Jörg Phil Friedrich in der Tageszeitung DIE WELTonline, die selbst mitgeholfen hat, Frau Priesemann in die Rolle einer Wahrsagerin zu hieven, am 24. März grundsätzliche Kritik an den politisch gefälligen Modellspielereien geübt. Dort liest man u.a.: Kann es sein, dass wir trotz einer jahrhundertelangen Geschichte der Rationalisierung der Welt immer noch so etwas wie „Wahrsager“ brauchen und dass die modellierende Naturwissenschaft, so ungenau sie auch immer sein mag, heute die Rolle dieser magischen Kräfte übernehmen muss? (…) Weil die Modelle mit Inzidenzen und R-Werten rechnen, meinen wir, diese Zahlen hätten auch direkte Bedeutung für politische Entscheidungen. Andere Dinge, die nicht in den Modellen vorkommen oder sich erst gar nicht mathematisch fassen lassen, wie die gesellschaftliche Stimmung, die Veränderung des kulturellen Klimas, die Auswirkungen auf die Lebensqualität, scheinen unwichtig zu werden, weil sie ja nicht in den Modellen stehen.“

Zwei Tage zuvor stand im gleichen Blatt ein ausführliches Interview mit dem Stanford-Professor John Ioannidis, der als führender Epidemiologe der Welt gilt. Der auch in Deutschland aktive Forscher erklärte schon im Januar in einer gemeinsam mit anderen Forschern im „European Journal of Clinical Investigation“ veröffentlichten Studie, drakonische Maßnahmen zur Eindämmung der Epidemie wie eine Verschärfung eines bereits bestehenden Lockdowns seien überflüssig. Diese Studie stieß zumindest in Deutschland auf methodische Einwände. Inzwischen betont Ioannidis sogar, die Lockdowns hätten insgesamt eher einen negativen Effekt gehabt. Leider sei das aber wegen der opportunistischen Haltung der meisten jungen Forscher nicht deutlich geworden, beklagt Ioannidis im Interview mit der WELT: „…  bei der großen Mehrheit meiner Kritiker handelt es sich nicht um Wissenschaftler, sondern um Aktivisten oder um Anfänger, die selbst noch wenig publiziert haben. (…) Viele Forscher versuchen, ihre Analysen so anzupassen, dass es zu einem bestimmten Narrativ passt. Inzwischen haben rund 459.000 Wissenschaftler etwas zu Covid-19 veröffentlicht. Die kamen ganz plötzlich aus dem Nichts. Das mögen kluge, in Datenanalyse gut ausgebildete Leute sein, aber sie haben nicht die geringste Ahnung von Epidemiologie oder Infektionskrankheiten oder dem Gesundheitswesen. Ihre überambitionierten Modellierungen beruhen auf unsicheren, sehr fehleranfälligen Daten – das ist, als ob man einen Mercedes-Motor in einen alten Holzkarren einbaut. In ihrem Enthusiasmus glauben viele dieser Wissenschaftler, sie könnten fehlerhafte Daten analysieren, als handelte es sich dabei um Messwerte aus einem Teilchenbeschleuniger. Dabei bieten Modellierungen immer nur eine schwache Evidenz. Sie sollten auch auf meine Modellierung nicht vertrauen.“

Modelle sind provisorische Hilfsmittel der Forschung. Sie sollten niemals mit der Realität verwechselt werden, weil sie komplexe Zusammenhänge mehr oder weniger extrem vereinfachen müssen. Statt als Hilfsmittel der Forschung erscheinen Modelle heute aber immer öfters als deren eigentliches Ziel. Dieser Verdacht drängt sich auch bei der Corona-Forschung auf. Hat das von den Medien verbreitete Virus-Modell eines bunten Plüschballs überhaupt eine eindeutige Entsprechung in der Realität? Diese ketzerische Frage sollte zumindest so lange nicht als abwegig betrachtet werden, als es noch nicht gelungen ist, SARS-CoV-2 in Reinform zu isolieren und sein Genom vollständig zu sequenzieren. Zumindest einige „Querdenker“ halten SARS-CoV-2 für ein „Phantom-Virus“, hinter dem sich in Wirklichkeit mehr oder weniger harmlose Exosomen verbergen. Daher ist es auch unklar, ob PCR-Tests nach Christian Drosten das Virus an asymptomatischen Probanden wirklich nachweisen können oder ob der Test nicht vielmehr das Virus mithilfe des Primers aus wenigen Aminosäuren quasi „erschafft“.

Weil heute offenbar zu viele Forscher vor allem auf die Bestätigung eines Narratives aus sind, anstatt ergebnisoffen nach der Wahrheit zu suchen, verschwimmen die Grenzen zwischen Science und Science fiction immer mehr. Damit einher geht eine Renaissance des magischen Denkens. Dieses offenbart sich kaum irgendwo deutlicher als in der Behauptung, die „Energiewende“ mit dem Ziel der CO2-Neutralität wirke als Vorsorge gegen Covid-19. Was nicht wie gewünscht eintritt, wird notfalls inszeniert oder aus dem kollektiven Gedächtnis verdrängt, indem man einfach beschließt, über reale Probleme nicht mehr zu reden: Zum Beispiel über die Kohlekraftwerke, die nur acht Tage nach ihrer offiziellen, vom Staat entschädigten Abschaltung ihren Betrieb wieder aufgenommen haben, um das Stromnetz vor dem Zusammenbruch zu bewahren. Oder über die enormen Umweltbelastungen, die E-Autos bei der Rohstoffgewinnung in armen Ländern verursachen. Oder nicht zuletzt über die immensen gesundheitlichen und wirtschaftlichen Kollateralschäden der Corona-Lockdowns.

Immerhin läutet nun der Vorstandsvorsitzende des Deutschen Krebsforschungszentrums, Professor Michael Baumann, die Alarmglocke, indem er darauf hinweist, dass die einseitige Ausrichtung der Krankenhäuser zu massiven Kollateralschäden führt. Wegen der Verschiebung von Untersuchungs- und OP-Terminen rechnet er mit bis zu 40.000 zusätzlichen Krebstoten. Darauf hatte schon im Frühjahr 2020 der Oberregierungsrat Stephan Kohn im Bundesinnenministerium (BMI) in einer 80-seitigen Studie hingewiesen. Zweieinhalb Millionen Menschen seien durch die einseitige Ausrichtung des Gesundheitswesens auf Covid-19 nicht medizinisch versorgt worden, schätzte Kohn. Es sei dadurch eine potentielle Lebenszeit im Umfang von mehreren Millionen Jahren geopfert worden. Kohn wurde daraufhin sofort seines Amtes enthoben. Dabei hatte er nur angewandt, was in seinem Ministerium schon im Jahre 2012 aus einer realistischeren Risikoanalyse möglicher Epidemie-Ereignisse gefolgert worden war, nämlich Maßnahmen zur Eindämmung einer Epidemie einem realistischen Kosten-Nutzen-Vergleich zu unterwerfen. Nach Oberregierungsrat Kohn führt die Nichtbeachtung der Risikoanalyse von 2012 nun zu bedenklichen Konsequenzen: „Die Resilienz des hochkomplexen und stark interdependenten Gesamtsystems Kritischer Infrastrukturen ist gesunken. Unsere Gesellschaft lebt ab sofort mit einer gestiegenen Verletzlichkeit und höheren Ausfallrisiken von lebenswichtigen Infrastrukturen. Das kann fatale Folgen haben…“. Im Parallel-Universum, in dem sich Angela Merkel und ihre handverlesenen Berater bewegen, scheint diese Schlussfolgerung allerdings unerwünscht, da „nicht hilfreich“ zu sein.

 




Das Ende der Modelle – das Ende der Hiobsbotschaften

Die Botschaft
Der Spiegel schreibt am 23.7.:

Forscher prognostizieren stärkere Erderwärmung. In leistungs­starken Programmen simulieren Forscher, wie die Erde auf eine Verdopplung der Kohlendioxid-Menge in der Atmosphäre reagieren würde.

Der Guardian warnte schon im Juni:

The current pace of human-caused carbon emissions is increasingly likely to trigger irreversible damage to the planet, according to a comprehensive international study released Wednesday.
(Laut einer umfassenden internationalen Studie, die am Mittwoch veröffentlicht wurde, wird das derzeitige Tempo der vom Menschen verursachten Kohlenstoffemissionen zunehmend irreversible Schäden auf dem Planeten auslösen.)

Das sind keine guten Nachrichten, aber können wir Spiegel und Guardian blind vertrauen? Ich schlage vor, wir schau‘n uns das mal an.
Das Häschen und Corona
Bitte betrachten Sie zunächst aufmerksam dieses kurze Video (zu Beginn bitte ein paar Sekunden Geduld).
Die Vierbeiner fühlen sich in der Dunkel­heit unsichtbar, verraten sich aber durch eine geheimnisvolle Strahlung. Ist das die „Aura“, wie sie nur von ganz besonderen Wesen ausgeht?
Nicht ganz. Was man sieht, ist infrarotes Licht, das von einer Spezialkamera aufgezeichnet wurde. Solches Licht, auch Wärmestrahlung genannt, wird von jedem Körper emittiert, ob lebendig oder nicht. Es kommt nur auf seine Temperatur an.
Mit der Temperatur steigt die Energie der Strahlung, und zwar ganz gewaltig. Die stark durchbluteten und unbehaarten Partien scheinen deutlich heller als der Rest des Körpers, obwohl sie nur ein paar Grad wärmer sind. Dieser Effekt wird übrigens auch beim kontaktlosen Fieber­messen benutzt, wie es in Corona-Zeiten alltäglich ist. Das Thermometer misst die von der Haut abgestrahlte Energie und kann daran tatsächlich unterscheiden, ob wir nur 36,5 °C oder bedenkliche 38 ° haben.
Die Strahlung von Mutter Erde
Mutter Erde hat eine durchschnittliche Temperatur von etwa 15° und strahlt damit permanent etwa 340 Watt Wärme je Quadratmeter ins All. Das ist nicht viel, aber dank ihrer gigantischen Oberfläche kommt da einiges zusammen. Warum kühlt sie sich dann nicht fortlaufend ab?
Nun, Sie haben es erraten: Die liebe Sonne wärmt uns ja, und zwar mit großzügigen 1.388 Watt pro Quadratmeter. Bekommen wir dann nicht wesentlich mehr Energie geliefert, als wir abstrahlen? Warum glüht die Erde dann nicht längst?
Dazu etwas Geometrie: So wie wir den Mond, so sieht auch die Sonne unsere Erde als kreis­förmige Silhouette. Auf der Fläche dieser Scheibe von 6.371 km Radius werden die Sonnen­strahlen eingefangen. Fragen sie jetzt bitte nicht, ob das auch nachts so ist; irgendeine Hälfte des Globus ist ja immer zur Sonne gewandt.
Damit unsere Temperatur gleichbleibt, müsste die Erde ebenso viel Energie abstrahlen, wie sie empfängt. Und genau das tut sie. Sie strahlt nämlich mit ihrer gesamten Kugeloberfläche, nicht nur mit der scheibenförmigen Silhouette, die sie der Sonne darbietet. Und wie es der Zufall so will, ist die Oberfläche einer Kugel genau das Vierfache einer Scheibe gleichen Durchmessers.
Um die gesamte Energiebilanz der Erde zu berechnen, müssen wir die empfangene Sonnen­energie von 1388 Watt/m2 mit der Fläche besagter Scheibe multiplizieren und die Abstrahlung von 340 Watt/m2 mit dem Vierfachen dieser Fläche, und dann die Differenz bilden.
Multiplizieren wir zunächst die 340 mit 4, dann kommen wir auf 1.360. Aber das ist ja fast genau das, was die Sonne zu bieten hat. Das ist kein Zufall, es sagt uns, dass tatsächlich die durch­schnittlich eingestrahlte und emittierte Energie – im Rahmen unserer extrem vereinfachten Betrachtung – gleich sind.
Wie durchsichtig ist Luft?
Nun strahlt die von der Erde abgegebene Energie nicht ungehindert ins Vakuum des Weltalls, sondern muss sich erst ihren Weg durch die Lufthülle erarbeiten. Da gibt es Blockaden, die zwar die einfallenden Sonnenstrahlen passieren lassen, die ausgehende Wärmestrahlung aber behindern. Das sind die sogenannten Treibhausgase, und das berüchtigtste heißt CO2.
Als Autofahrer haben Sie sicher schon gesehen, was passiert, wenn Sie versuchen, mit den Scheinwerfern durch Nebel zu leuchten. Sie bekommen den halben Segen zurück in die Augen und können noch weniger sehen als vorher. Für die Infrarotstrahlen ist das CO2 wie Nebel, für uns (außer Greta) ist dieses Gas aber total unsichtbar. Das CO2 streut einen Teil der Wärmestrahlung, die eigentlich ins All entweichen möchte, zurück. Die Erde bleibt daher etwas wärmer, als es ohne CO2 der Fall wäre.
Ein paar Grad mehr bedeutet aber, dass die Erdoberfläche wesentlich mehr Energie abgibt. Dabei macht schon ein kleiner Temperaturanstieg einen deutlichen Unterschied. Erinnern Sie sich an die Tiere im Video? Da strahlen die Bäuche der Elefanten auch mehr als die kühleren Rücken.
Die Erdoberfläche strahlt nun also ebenfalls stärker, aber das CO2 hält davon eben einen kleinen Prozentsatz zurück, sodass letztlich die gleiche Energie ins All gestrahlt wird, wie es ohne CO2 der Fall war. Das Gleichgewicht von empfangener und abgegebener Energie ist also wiederhergestellt, wenn auch zum Preis einer höheren Temperatur.
Nun haben sich die Forscher etwas überlegt. Nehmen wir die präindustrialisierte Erde, etwa vom frühen 20. Jahrhundert, da gab es 0,028% CO2 in der Luft. Auf diese Situation hatten sich die Erde und ihre Temperatur seit Jahrtausenden eingestellt. Jetzt verdoppeln wir schlagartig die CO2-Konzentration von 0,028% auf 0,056%. Um wie viel Grad würde es dann wärmer? Das ist natürlich ein Gedankenexperiment, wir können es nicht gerade mal mit der Erde durchführen, aber es kann lehrreich sein.
Lange haben die Experten gerechnet und kamen zu dem Ergebnis, dass die Temperatur um irgendeinen Wert zwischen 1,5° und 4,5° steigen würde. Diesen Wert nannten sie Klima-Sensitivität.
Geht’s nicht genauer?
Das ist aber ein recht ungenaues Resultat. Das ist, als würde ein Handwerker einen Kosten­voranschlag machen: „… so zwischen 1.500 und 4.500 Euro wird’s schon werden.“ Können die Spezialisten mit ihren Supercomputern das nicht besser ausrechnen?
Nun, ich habe Ihnen bisher nur die halbe Wahrheit erzählt, vielleicht sogar noch weniger. Neben dem CO2 gibt es ein anderes Treibhausgas, das im Vergleich zu CO2 eine hundertmal so große Konzentration haben kann: der Wasserdampf in der Atmosphäre, auch Luftfeuchtigkeit genannt. Dieses gasförmige, unsichtbare Wasser hat auf die Wärmestrahlung den gleichen Effekt wie das CO2, allerdings wesentlich stärker.
Während sich CO2 nun einigermaßen ordentlich über die Erde verteilt, verhält sich das Wasser genau umgekehrt. Mal ist es hier, mal dort, manchmal kondensiert es zu kleinen Tröpfchen und bildet Wolken, dann werden die Tröpfchen groß und schwer, sodass sie zu Boden fallen und wir sagen:
„Es regnet.“ Dieses chaotische Treiben des Wassers ist ein wesentlicher Teil dessen, was wir als Wetter bezeichnen.
Und das Wasser, sei es gasförmig flüssig oder fest, hat einen sehr starken Einfluss auf die einfallende und emittierte Strahlung. Jetzt geht es nicht mehr nur um sanfte Streuung der Wärmestrahlung auf ihrem Weg ins All; durch das Wasser wird chaotisch ins ganze Energiegeschehen eingegriffen: Sonnenlicht wird an den Oberseiten der Wolken reflektiert, sodass es gar nicht erst auf die Erde kommt; Wärmestrahlung wird an der Unterseite blockiert und feine Nebeltröpfchen treiben ihr eigenes Spiel mit den verschiedenen Strahlen.
In diesem Chaos wollen wir nun herausfinden, welchen Einfluss die Zunahme der CO2-Konzentration um ein paar hundertstel Prozent haben soll? Das ist so, als hätte Mutter Erde ein feines Seidenhemdchen aus CO2 an, das sie niemals ablegt, darüber aber zieht sie nach Lust und Laune dicke Wollpullover, Pelz­jacken und Wintermäntel aus Wolken oder Wasserdampf an und aus. Das feine Seidenhemdchen aber wird von Jahr zu Jahr um ein paar Fädchen dichter; und wir wollen ausrechnen, welchen Einfluss genau das auf Mutters Temperatur hat?
Mission Impossible
Es ist eine „Mission impossible“, aber furchtlose Forscher vom World Climate Research Programme haben erneut ihre Computer angeworfen und mit neuesten Daten und Erkenntnissen gefüttert – und voilà, hier ist das Ergebnis: Die Klima-Sensitivität liegt bei einem Wert irgendwo zwischen 1,6° und 5,6°. Würde also das CO2 auf den besagten doppelten Wert der präindustrialisierten Ära ansteigen – gemäß aktuellem Zuwachs würde das 75 Jahre dauern – dann könnte Hamburgs mittlere Jahrestemperatur von heute 8° auf maximal 13° steigen, dann wäre es an der Alster so warm, wie heute in Mailand und in Mailand wie heute in Sevilla.
Es spricht für die Gewissenhaftigkeit der Forscher, dass sie uns auch verraten, mit welcher Wahrschein­lichkeit ihre Aussage zuträfe: nämlich 66%. Diese Unsicherheit, verknüpft mit der ohnehin schon riesigen Unschärfe von 1,6° bis 5,6°, ist aber ein Offenbarungseid: die Angelegenheit ist viel zu kompliziert, als dass wir sie berechnen könnten. Man kann einfach nichts Genaueres sagen als:

„Wenn wir so weitermachen wie bisher, dann wird es in den nächsten Jahrzehnten vermutlich ein paar Grad wärmer.“

Also, liebe Forscher: es liegt nicht an Euch oder an Euren Programmen, dass Ihr zu keinem vernünftigen Ergebnis kommt. Es liegt an der Natur des Klimas. Man kann es einfach nicht im Computer abbilden – ebenso wenig wie die Gedankengänge einer Frau. Sucht Euch einen anderen Job; bei Eurer Qualifikation ist das kein Problem.
Und noch etwas: Mit einer Wahrscheinlichkeit von 100 % minus 66 %, also mit 33 % könnte die Erwärmung außerhalb des angegebenen Bereichs von 1,6 ° bis 5,6 ° liegen. 33% ist immerhin dieselbe Wahrscheinlichkeit, mit der man beim Würfeln ein Fünf oder Sechs erwarten kann. Wir könnten also, wissenschaftlich ganz legitim, auch weniger als 1,6 ° Erderwärmung erwarten. Wären wir dann Klimaleugner, also Unmenschen? Oder befänden wir uns noch mit 33 % Wahrscheinlichkeit unter den Anständigen?
Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“
 
 
 
 




Klimawandel durch Datenmanipulation? (Eine Nuss für Faktenmörder)

Roy Spencer hat darauf hingewiesen. Wir haben vor einigen Tagen darüber berichtet:

Quelle

Dargestellt ist die Abweichung der beiden neuesten Generationen von Klimamodellen (CMIP5 und CMIP6) von den Beobachtungsdaten, also den gemessenen Temperaturen.
Schon im Juli 2019 haben wir einen Beitrag veröffentlicht, in dem wir Indizien dafür zusammengetragen haben, dass NASA und NOAA Klimadaten, Beobachtungsdaten, manipulieren. Sie nennen das Homogenisierung.

Im selben Monat haben wir von der seltsamen Erwärmung der Schweiz berichtet, die sich in den Daten der NASA findet und am Beispiel dargelegt, wie MeteoSwiss und NASABeobachtungsdaten nachbessern.
Wir sind mit dieser Darstellung nicht die ersten. Schon 2016 hat Tony Heller sehr eindrücklich dargelegt, wie man bei der NASA der Tatsache begegnet, dass sich Neuseeland einfach nicht erwärmen will, wie in Klimamodellen vorhergesagt:

Dargestellt sind die adjustierten Daten für zwei Messstationen in Neuseeland, einmal in der Dateninterpretation der NASA aus dem Jahre 2011, einmal in der Dateninterpretation der NASA aus dem Jahre 2016. Die eklatanten Unterschiede gehen auf Datenmanipulationen zurück, die bei der NASA als Datenhomogenisierung bezeichnet werden. Dass es sich dabei um eine ideologisch bedingte Datenmanipulation handelt, sieht man leicht daran, dass die Manipulation generell in dieselbe Richtung geht: Die Vergangenheit wird kälter, die Gegenwart wärmer.
Pierre Gosselin hat gerade auf NoTricksZone für eine weitere Messstation auf Neuseeland den eklatanten Unterschied in den Datenversionen der NASA dargestellt. Je neuer die Daten der NASA werden, desto kälter wird die Vergangenheit und desto wärmer wird die Gegenwart, wobei der Gag an der Sache darin besteht, dass die unterschiedlichen Verläufe auf Basis der selben Beobachtungsdaten herbeimanipuliert werden.

Electroverse zeigt dieselbe Manipulation für die Daten der Messstation in Reykjavik. Abermals wird die Vergangenheit kälter gemacht, damit die Gegenwart wärmer erscheint.

GHCN V3 steht für Version 3 des Datensatzes der GISS Surface Temperature Analysis, dem Datensatz, der als GISTEMP von Klimamodellierern weltweit genutzt wird, um ihre immer weiter von der Realität der Beobachtungsdaten abweichenden Modelle zu erstellen, wie wir eingangs dargestellt haben.
Hier schließt sich der Kreis zwischen der Beobachtung von Roy Spencer, dass die Daten der Klimamodelle, je neuer die Modelle werden, umso weiter von der Realität, von der tatsächlichen gemessenen Temperatur abweichen. Die Erklärung für diese Beobachtung besteht in der dargestellten Datenmanipulation durch das Goddard Institute for Space Studies (GISS). Die Manipulation, die offenkundig dazu dient, die fehlende Erwärmung der Gegenwart dadurch wettzumachen, dass die Vergangenheit abgekühlt wird, dass vor allem die hohen Temperaturen der 1940er Jahre verfälscht werden, findet ihren Niederschlag in immer größeren Abweichungen der Vorhersagen der Klimamodelle von der tatsächlichen Entwicklung der Erdtemperatur. Dass dieselben GISS-Daten im Verlauf der Versionen immer höhere Temperaturen für die Gegenwart mit immer kühler werdenden Temperaturen in der Vergangenheit kombinieren, hat Tony Heller schon 2016 eindrucksvoll dargestellt:

Man sollte denken, eine solche eklatante Fälschung von Daten sei nicht aufrecht zu erhalten, könne nicht durchgesetzt werden. Aber diese Rechnung ist ohne die vielen Aktivisten, die vor den Karren derer gespannt werden, die am Klima-Hoax bestens verdienen, gemacht. Sie sorgen dafür, dass ein öffentliches Klima geschaffen wird, in dem nicht derjenige, der lügt, verachtet wird, sondern derjenige, der die Lüge aufdeckt, bestraft und von gedungenen Faktenmördern, dpa-Faktencheckern, ARD-Faktenfindern, mundtot gemacht wird.
Das Drehbuch für die Manipulation der Daten, die eine zunehmende Erwärmung dadurch gaukelt, dass die warmen Jahre der 1940er Jahre eliminiert, der 1940s warming blip, der bislang als unüberbrückbarer Widerspruch zur Phantasie von Michael Mann galt, die als Hockeystick bekannt ist, beseitigt wird, findet sich in den geleakten eMails aus Climategate.Electroverse gebührt der Dank dafür, wieder einmal darauf hingewiesen zu haben. Der wohl größte Betrug in der Wissenschaftsgeschichte, “Climategate”, ist übrigens ohne Folgen geblieben. Mehr Belege dafür, dass hinter dem Klimawandel-Hoax eine Vielzahl von Personen mit Einfluss stehen, die an dem Hoax fürstlich verdienen, sind eigentlich nicht notwendig.

Aber das ist natürlich alles nicht wahr, werden die Faktenmörder Ihnen erzählen wollen. Das müssen sie erzählen. Sie wurden eigens erfunden und eingesetzt, um zu verhindern, dass die vielen Betrügereien, an denen sich wenige auf Kosten von vielen dumm und dämlich verdienen, auffliegen.
Prostitution hat viele Gesichter!
Der Beitrag erschien zuerst bei ScienceFiles hier