Mit diesem Tun beeinflusst das IPCC die öffentliche Gesundheit und das öffentliche Wohlergehen aller Menschen negativ, bringt es doch die Regierungen dazu, den Energieverbrauch zu begrenzen anstatt nach Wegen zu suchen, um die Verfügbarkeit von Energie zu verbessern (oder sich einfach aus dem Markt herauszuhalten).

Jeder weiß, dass sich die globale Erwärmung (wie sie durch den Anstieg der mittleren Temperatur der Erde repräsentiert wird) während der letzten eineinhalb Jahrzehnte verlangsamt hat. Die Gründe hierfür sind derzeit das heißeste Thema in der Klimawissenschaft mit etwa einem Dutzend unterschiedlicher Erklärungen, die in den Raum geworfen werden.

Die Modell-Apologeten strampeln sich ab, um den Ruf ihrer Modelle (und ihren eigenen) zu retten – weil sie das Eine nicht zugeben wollen – sie wollen nicht zugeben, dass vielleicht die einfachste und offensichtlichste Antwort die Richtige ist, dass nämlich Klimamodelle den Temperaturanstieg infolge menschlicher Treibhausgas-Emissionen erheblich überschätzen. Falls die Modelle überhitzt sind, dann gilt das auch für alle Auswirkungen, die aus den Modellprojektionen abgeleitet werden. Und das wäre die Totenglocke für alle eingeführten Regulierungen zur Begrenzung unseres Verbrauchs fossiler Treibstoffe.

In der ,Summary for Policymakers’ SPM des 5. Zustandsberichtes räumt selbst das IPCC die jüngste Divergenz der Modellprojektionen und der Beobachtungen ein:

„Es gibt jedoch Differenzen zwischen simulierten und beobachteten Trends in Zeiträumen von 10 bis 15 Jahren (z. B. von 1998 bis 2013)“.

Aber bevor man jetzt denkt, dass es mit den Klimamodellen irgendwelche Probleme gibt, stellt das IPCC klar:

„Die langzeitlichen Klimamodell-Simulationen zeigen einen Trend der globalen mittleren Temperatur von 1951 bis 2012, der mit dem beobachteten Trend übereinstimmt“.

Na sowas! Eine Minute lang sah es so aus, als ob die Modelle versuchten, die Realität abzubilden, aber man versichert uns, dass langfristig – sagen wir seit Mitte des 20. Jahrhunderts – dem IPCC zufolge die Modellsimulationen und die Beobachtungen „übereinstimmen“.

Das IPCC zeigt seinen „Kasten 9.2“ zur Unterstützung dieser Behauptungen.

In dieser „Box 9.2” platziert das IPCC hilfreich die beobachteten Trends in den Zusammenhang der Verteilung simulierter Trends der Sammlung von Klimamodellen, die in dem Bericht verwendet werden. Die Höhepunkte aus Box 9.2 werden hier reproduziert als unsere Abbildung 1. In dieser Abbildung ist der beobachtete Trend für verschiedene Zeiträume in rot und die Verteilung der Modelltrends in grau dargestellt.

Abbildung 1: Verteilung des Trends der globalen mittleren Temperatur aus 114 Modellläufen des IPCC (grau) und der beobachteten Temperaturtrends, zusammengestellt vom Hadley Center in UK (rot). Abbildung aus dem 5. Zustandsbericht des IPCC.

Wie man im Teil (a) sieht, liegen die beobachteten Trendlinien von 1998 bis 2012 unter fast allen Modelltrends. Das IPCC schreibt dazu:

111 der 114 Läufe zeigen einen Trend der globalen Mittleren Temperatur von 1998 bis 2012, der höher liegt als das gesamte HadCRUT4-Ensemble. Dies führte zur oben zitierten Feststellung des IPCC in der SPM.

Ernsthaft!

Wenden wir uns jetzt der Periode von 1951 bis 2012 zu, Teil (c) in Abbildung 1.

Das IPCC beschreibt den dort gezeigten Zustand so:

Während der 62-jährigen Periode von 1951 bis 2012 stimmen der beobachtete Trend und der Trend des Klimamodells CMIP5 bis auf 0,02°C pro Dekade überein…

Das klingt so, als ob die Modelle ziemlich gut sind – und nur um 0,02°C pro Dekade abweichen. Und das ist die Grundlage für das IPCC-Statement zur langzeitlichen Modellsimulation (ebenfalls oben zitiert).

Interessanterweise sagt uns das IPCC nicht explizit, wie viele der 114 Klimamodelle einen größeren Trend zeigen als im Zeitraum 1951 bis 2012 beobachtet. Und es ist grundsätzlich unmöglich, dies selbst aufgrund des Teils (c) herauszufinden, weil einige Balken im Histogramm über die Obergrenze der Graphik hinausreichen und die Skalierung der X-Achse so groß ist, als ob die Trends zu einem Bündel zusammengefasst werden sollen zu nur sechs Körben, die die 114 Modellläufe repräsentieren sollen. Konsequenterweise kann man nicht abschätzen, wie gut die Modelle wirklich sind und wie groß ein Unterschied von 0,02°C pro Dekade während 62 Jahren wirklich ist. Man muss das IPCC hierzu beim Wort nehmen.

Aber das tun wir nicht.

Auf der Website Climate Explorer wird die große Mehrheit der vom IPCC benutzten Klimamodell-Ergebnisse archiviert und verfügbar gemacht. Hier kann man 108 der 114 in  die IPCC-Graphik eingeflossenen Modellläufe bestimmen – eine Mehrheit, die groß genug ist, um die Ergebnisse ziemlich genau zu reproduzieren.

Das machen wir in unserer Abbildung 2. Allerdings adjustieren wir beide Achsen der Graphik so, dass alle Daten gezeigt werden und man die Details dessen erkennen kann, was wirklich vor sich geht.

Abbildung 2: Verteilung des Trends der globalen Mitteltemperatur aus 108 Modellläufen, die vom IPCC verwendet werden (blau) und den beobachteten Temperaturen des UK Hadley Centers (rot) im Zeitraum von 1951 bis 2012. (Die Modelltrends sind berechnet aus historischen Läufen mit den RCP4.5-Ergebnissen, angefügt nach 2006). Dies zeigt die fast identischen Daten in Teil (c) der Abbildung 1.

Wir erkennen, dass 90 der 108 Modellläufe mehr globale Erwärmung simulieren als beobachtet von 1951 bis 2012 und 18 Modelläufe, die weniger Erwärmung simulieren. Was eine andere Art ist zu sagen, dass die Beobachtungen beim 16. Perzentil [?] der Modellläufe fallen (das 50. Perzentil ist der mittlere Modell-Trendwert).

So wollen wir also jetzt folgende Frage in den Raum stellen, zu beantworten mit einer Bandbreite von 1 bis 5 oder besser unter Verwendung der Terme „sehr niedrig“, „niedrig“, „mittel“, „hoch“ oder „sehr hoch“. Wie würden Sie Ihr „Vertrauen“ in diesem Statement benennen?:

 „Die langfristigen Klimamodell-Simulationen zeigen einen Trend der globalen mittleren Temperatur von 1951 bis 2012, der mit dem beobachteten Trend übereinstimmt”.

Also, haben Sie eine Antwort?

Unsere Antwort lautet, wenn es hoch kommt, „mittel“.

Schließlich gibt es noch sehr viel Spielraum für Verbesserungen.

Zum Beispiel könnte die Bandbreite der Modelle viel enger sein. Dies würde zeigen, dass die Modelle in besserer Übereinstimmung untereinander sind, was den simulierten Trend betrifft. So wie es jetzt ist, reicht die Bandbreite der Modelle 1951 bis 2012 von 0,07°C pro Dekade bis 0,21°C pro Dekade (man beachte, dass der beobachtete Trend bei 0,107°C pro Dekade liegt). Und dies kommt von Modellen, die zumeist mit beobachteten Änderungen der Klimatreiber betrieben wurden (z. B. Treibhausgas-Emissionen, Aerosol-Emissionen, Vulkane usw.) und über einen Zeitraum (62 Jahre), aus dem sich alle kurzfristigen Wetter-Variationen herausmitteln. Mit anderen Worten, sie sind überall.

Eine andere Möglichkeit, die Übereinstimmung zwischen den Modell-Simulationen und den Beobachtungen in der realen Welt zu verbessern, wäre es, wenn der beobachtete Trend näher an der Mitte der Verteilung der Modellprojektionen liegen würde. Zum Beispiel wäre die Übereinstimmung viel besser, wenn, sagen wir, 58 Modelle mehr und die anderen 50 weniger Erwärmung simulieren würden.

Was würde Ihr Vertrauen verringern?

Der gegenteilige Satz von Tendenzen. Die Verteilung der Modelle könnte sogar noch größer sein als gegenwärtig, was zeigen würde, dass die Modelle untereinander sogar noch weniger darin übereinstimmen, wie sich die Temperatur in der realen Welt entwickeln wird (oder dass die natürliche Variabilität während des Zeitraumes der Trendanalyse sehr groß war). Oder der beobachtete Trend könnte sich weiter vom Mittelpunkt der Modellverteilung entfernen. Dies würde eine zunehmende Diskrepanz zwischen Beobachtungen und Modellen zeigen (und wäre damit dem ähnlicher, was im Zeitraum von 1998 bis 2012 los war).

Tatsächlich ist letztere Situation im Gange – das heißt, der beobachtete Trend bewegt sich stetig nach links in der Verteilung der von den Modellen simulierten Trends.

Abbildung 3 zeigt, bei welchem Perzentil der beobachtete Trend für jeden Zeitraum seit 1951 und bis zu jedem Jahr von 1980 bis 2013 fällt.

Abbildung 3: Die Rangfolge der Perzentile des beobachteten Trends der globalen Mitteltemperatur, der 1951 beginnt und mit dem auf der X-Achse indizierten Jahr endet, innerhalb der Verteilung von 108 simulierten Trends im gleichen Zeitraum. Das 50. Perzentil ist der mittlere Trend simuliert durch die Masse der Klimamodelle.

Nach dem Spitzenwert beim 42. Perzentil (immer noch unterhalb der mittleren Modellsimulation beim 50. Perzentil) während des Zeitraumes 1951 bis 2012 ist der beobachtete Trend in der Prozent-Rangfolge stetig gefallen und hat gegenwärtig (im Zeitraum 1951 bis 2013) seinen niedrigsten Punkt jemals erreicht (14. Perzentil), Tendenz weiter fallend. Wie jedermann eindeutig erkennen kann, lässt dieser Trend die Modelle schlecht aussehen, da das Niveau der Übereinstimmung mit den Beobachtungen mit der Zeit stetig immer weiter abnimmt.

Statistisch gesprochen: falls der beobachtete Trend unter das 2,5. Perzentil fällt, würde man dies weithin betrachten, dass der Beweis stark genug war zu zeigen, dass die Beobachtungen nicht aus der Masse der Modellergebnisse stammen. Mit anderen Worten, ein Statistiker würde die Lage, dass die Modelle nicht mit den Beobachtungen übereinstimmen, mit dem Terminus „sehr hohes Vertrauen“ bezeichnen. Einige Forscher verwenden einen laxeren Standard und würden schon bei einem Abfall unter das 5. Perzentil davon ausgehen, dass die Beobachtungen nicht mit den Modellen übereinstimmen. Wir würden diesen Fall mit „hohes Vertrauen“ beschreiben, dass die Modelle und die Beobachtungen nicht miteinander übereinstimmen.

Wie weit entfernt sind wir also von jeder dieser Situationen?

Alles hängt davon ab, wie sich die mittlere Temperatur der Erde in naher Zukunft verhält.

Wir erkunden drei verschiedene Szenarien zwischen jetzt und dem Jahr 2030.

Szenario 1: Die mittlere Temperatur der Erde bleibt in jedem Jahr des Zeitraumes 2014 bis 2030 gleich der mittleren Temperatur, die während der ersten 13 Jahre dieses Jahrhunderts gemessen worden ist (2001 bis 2013). Dieses Szenario repräsentiert eine Fortsetzung des „Stillstands“ beim Anstieg der globalen Temperaturen.

Szenario 2: Die Temperatur der Erde nimmt Jahr für Jahr mit einer Rate zu, wie sie im Zeitraum 1951 bis 2012 beobachtet worden ist (0,107°C pro Dekade*). Dies repräsentiert eine Fortsetzung des beobachteten Trends.

[*Im Original steht an dieser Stelle die Zahl 0,0107°C. Weiter oben stand die Zahl 0,107°C. Ich vermute mal, dass hier ein Schreibfehler der Autoren vorliegt, und habe den oben genannten Wert in diese Übersetzung geschrieben. A. d. Übers.]

Szenario 3: Die mittlere Temperatur der Erde nimmt Jahr für Jahr mit einer Rate zu wie im Zeitraum 1977 bis 1998 beobachtet – einem Zeitraum, der oftmals als der 2. Temperaturanstieg des 20. Jahrhunderts bezeichnet wird.  Die Rate der Temperaturzunahme in diesem Zeitraum hatte 0,17°C pro Dekade betragen. Dies repräsentiert ein Szenario, in dem die Temperatur mit der höchsten in der Periode beobachteten Rate steigt, einer Periode, die oftmals assoziiert wird mit einem anthropogenen Einfluss auf das Klima.

Abbildung 4 zeigt, wie sich die perzentile Rangfolge der Beobachtungen unter allen drei Szenarien entwickelt von 2013 bis 2030. Unter Szenario 1 würde der beobachtete Trend im Jahr 2004 unter das 5. Perzentil der Verteilung der Modellsimulationen fallen und unter das 2,5. Perzentil im Jahr 2023. Unter Szenario 2 sind die Jahre, in denen diese Perzentile unterschritten werden, 2019 bzw. 2026. Und unter Szenario 3 würde der beobachtete Trend (seit 1951) in den Jahren 2020 bzw. 2030 unter diese Perzentile fallen.

Abbildung 4: Perzentile Reihenfolge des beobachteten Trends innerhalb der Verteilung der Modellsimulationen seit 1951 und endend in dem Jahr, das auf der X-Achse gekennzeichnet ist unter der Anwendung der drei Szenarien, wie sich die beobachtete globale Mitteltemperatur zwischen den Jahren 2014 und 2030 entwickeln wird. Die Klimamodelle laufen mit historischem Antrieb von 1951 bis 2006 und dem RCP4.5-Szenario danach.

Es sieht eindeutig nicht gut aus für die Klimamodelle, wenn selbst ein nachhaltiger Temperaturanstieg ähnlich dem raschesten beobachteten Szenario (Nr. 3) innerhalb von zwei Jahrzehnten immer noch zu einem vollständigen Scheitern der Modelle führt.

Schauen wir also mal:

1) Die Untersuchung von 108 Klimamodellläufen, die die Periode von 1951 bis 2012 umfassen, zeigen, dass die modellsimulierten Trends der globalen Mitteltemperatur um einen Faktor drei variieren – kaum ein hohes Niveau der Übereinstimmung, wie es zwischen den Modellen eigentlich sein sollte.

2) Der beobachtete Trend während des Zeitraumes 1951 bis 2012 fällt beim 16. Perzentil der Modellverteilung, wobei 18 Modellläufe einen kleineren Trend und 90 Modellläufe einen größeren Trend zeigen. Keine wirklich gute Übereinstimmung.

3) Der beobachtete Trend hat sich immer weiter vom Mittel der Modelle entfernt und während der letzten 15 Jahre immer niedrigere Perzentile erreicht. Die Übereinstimmung zwischen dem beobachteten Trend und den Modelltrends wird stetig immer schlechter.

4) Innerhalb der nächsten 5 bis 15 Jahre wird der langzeitliche beobachtete Trend (seit 1951) mit an Sicherheit grenzender Wahrscheinlichkeit so weit unter die Modellsimulationen fallen, dass er statistisch nicht mehr als zu den modellierten Ergebnissen gehörend gerechnet werden kann. Diese Nicht-Übereinstimmung zwischen beobachteten Trends und Modelltrends wäre vollständig.

Mit all diesen Informationen geben wir Ihnen einen Moment des Nachdenkens über Ihre ursprüngliche Antwort auf diese Frage, zu beantworten mit einer Bandbreite von 1 bis 5 oder besser unter Verwendung der Terme „sehr niedrig“, „niedrig“, „mittel“, „hoch“ oder „sehr hoch“. Wie würden Sie Ihr „Vertrauen“ in diesem Statement benennen?:

„Die langfristigen Klimamodell-Simulationen zeigen einen Trend der globalen mittleren Temperatur von 1951 bis 2012, der mit dem beobachteten Trend übereinstimmt”.

Haben Sie Ihre letztendliche Antwort?

Ok, vergleichen wir das mit der Einschätzung des IPCC zur Übereinstimmung zwischen Modellen und Beobachtungen. Das IPCC hat diese Einschätzung mit „sehr hohes Vertrauen“ bezeichnet – das höchste Vertrauensniveau, das sie vergeben.

Hören wir hier eine erstaunte Stille?

Dies alles fast den IPCC-Prozess in aller Kürze zusammen. Die Fakten zeigen, dass die Übereinstimmung zwischen den Modellen und den Messungen sehr dünn ist und stetig weiter erodiert. In etwa einem Jahrzehnt wird sie statistisch überhaupt nicht mehr vorhanden sein, und doch vergibt das IPCC der gegenwärtigen Übereinstimmung zwischen Modellen und Messungen das höchste Vertrauensniveau.

Falls die Modelle falsch sind (und zu viel Erwärmung vorhersagen), dann zerfallen alle Auswirkungen der Klimaänderung sowie die Dringlichkeit, „etwas zu tun“, und „die Krise“ löst sich auf.

Das ist politisch inakzeptabel.

Also trachtet das IPCC nicht danach, die Wahrheit zu sagen, sondern stattdessen das Narrativ „die Klimaänderung ist schlecht“ weiter zu pflegen. Schließlich haben Regierungen auf der ganzen Welt eine Masse Geld für die Bemühungen ausgegeben, die Klimaänderung auf der Grundlage der IPCC-Einschätzungen zuvor zu bekämpfen. Das IPCC kann jetzt einfach nicht zurückweichen und sagen, Oh, Entschuldigung, wir hatten unrecht, das tut uns leid! Also fahren sie fort, den Mythos zu pflegen und die Politiker in die Irre zu führen [doch wohl tatkräftig unterstützt durch willfährige Medien! A. d. Übers.]

Link: http://wattsupwiththat.com/2014/04/16/a-clear-example-of-ipcc-ideology-trumping-fact/

Übersetzt von Chris Frey EIKE

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken