Klimakatastrophe: Wissenschaft und Politik auf gefährlichen Abwegen

Als Historiker schaue ich mit schaudernder Spannung auf Ideologie und Machtpolitik, wenn es um das Thema Klima geht. Als Ökonom schüttele ich betrübt den Kopf, wenn es um die Energiepolitik geht. Mein Alarmsystem als Liberaler schrillt – das geht vielen anderen Menschen ähnlich.

In meiner intensiven wissenschaftlichen Auseinandersetzung mit dem Nationalsozialismus fand ich das Konzept der Politischen Religion aussagekräftig. Längst finden sich eine Fülle von Anzeichnen, die beim sogenannten Klimaschutz auf eine Ersatzreligion hinweisen. In der ausgezeichneten Broschüre Kann der Mensch das „Klima retten“? 45 Fragen und Antworten zu Klimawandel und Energiewende, erschienen in 3. Auflage beim Kaleidoscriptum Verlag, schreiben Wulf Bennert, Wolfgang Merbach Hans-Günter Appel und Helmut Waniczek im Vorwort:

Zu den religiösen Attributen der Klimaschutzbewegung zählen: Todsünden (Fliegen, Fleischkonsum), Kardinalstugenden (vegane Ernährung, E-Auto fahren, Solarstrom nutzen), ein Tag des jüngsten Gerichts (Verfehlen des neuen 1,5-Grad-Zieles), Prozessionen (Fridays for future), sowie der geplante Ablasshandel (CO2-Steuer). Und sie kennt auch den außerhalb der Glaubensgemeinschaft stehenden Ketzer: den Klimaleugner.

Ein wenig später heißt es zur Aussage des Youtubers Rezo, dass es nur eine legitime Einstellung gebe:

Das ist die Sprache, die wir aus totalitären Systemen kennen.

Indes hat die Broschüre, die ich jederman empfehle und die in die Schulen gehört, weitaus mehr zu bieten. Das gilt für prägnante Erklärungen wie: Klima ist das über 30 Jahre gemittelte Wetter, aber auch für die treffende Bezeichnung von sogenannten E-Autos als Batterieautos. Darüber hinaus gilt es für jede Menge Denkanstöße, die die beiden großen Abschnitte enthalten, nämlich 25 Fragen und kompakte Antworten zum heutigen Klimawandeln und zum CO2 sowie 20 Fragen und kompakte Antworten zur Energiewende und Elektromobilität in Deutschland.

Ich greife drei wesentliche Aussagen heraus:

  • Die Modellrechnungen des IPCC rechtfertigen nicht, einen dramatischen, beispiellosen, menschengemachten Klimawandel anzunehmen: Es gab noch nie ein Gleichgewicht des Klimas. Temperaturschwankungen in der Vergangenheit übertrafen die heutigen. Der CO2-Gehalt war war während der meisten Epochen viel höher und folgte den Temperaturen – nicht umgekehrt.

  • Die natürlichen Ursachen für den Klimawandel, insbesondere die variierende Sonnenaktivität, deuten darauf hin, dass der Einfluss des Menschen auf das Klima gerade auch durch sogenannte Klimaschutzmaßnahmen marginal ist.

  • Das Batterieauto ist als generelle Mobilitätsstrategie ein politisch erzwungener Irrweg, der eine starke Umweltbelastung mit sich bringt.

Lesenswert sind insbesondere die zahlreichen prägnanten Schlussfolgerungen zum Klimawandel und zur Energiepolitik.

Fazit: Schützen wir unsere Umwelt, nicht das Klima!

P.S. Eine Familie mit Vater, Mutter und zwei Kindern zahlt zwischen 2015 und 2025 mindestens 25.000 Euro für die Klimapolitik. In den darauf folgenden Jahren wird es teurer. Wer knapp bei Kasse ist wird also beispielsweise ein Kind nicht studieren lassen können.

Der Beitrag erschien zuerst hier



Modell-Chaos in der Welt von Wetter und Klima

Neben meiner Tätigkeit als Prognostiker in Radio und Fernsehen bin ich hauptsächlich Berater großer Unternehmen für Energie (jedweder Energieverbrauch, Wind, Solar usw. muss auch vorhergesagt werden) und auch für Finanzinstitute. In der globalen Ökonomie steckt Wetter seine Finger in alles und jedes. Und es gibt so viele Modelle da draußen (täglich über ein Dutzend aus vielen Ländern), die kaum einmal miteinander übereinstimmen*.

[*Einschub des Übersetzers: Je mehr Informationsquellen man hat, umso weniger weiß man natürlich, was Sache ist, falls diese Informationsquellen alle etwas anderes sagen. Das gilt nicht nur für Wetter und Klima, sondern z. B. auch für sensationelle Nachrichten, wie die Berichterstattung zur derzeitigen Krise zeigt. Damit sind aber erfahrene Wetter-Prognostiker wie der Autor dieses Beitrags und auch der Übersetzer wieder gefragt. Sie können mit ihrer über 40-jährigen Erfahrung der Wetterbeobachtung zumindest verschiedenen Modellen unterschiedlich hohe Wahrscheinlichkeiten des Eintreffens zuweisen – womit wir im Grunde wieder in den Zeiten angelangt wären, bevor derartige Modellrechnungen für die Wetterprognose überhaupt verfügbar waren. – Ende Einschub]

Es folgt ein Beispiel einer Fehleinschätzung seitens Wettermodellen in den USA. Bastardi nennt aber auch ein Beispiel für Europa. Anm. d. Übers.

Die gegenwärtige Kältewelle in Europa tauchte erst vor zwei Wochen in den Modellen auf. Wärme kann das Modell immer sehen, Kälte aber nicht – außer über dem Meer, wo die Änderungen langsamer vonstatten gehen und mehr von der Wassertemperatur beeinflusst werden. Diese liegen im Nordatlantik unter den Mittelwerten.

Beispielhaft seien hier die numerischen Simulationen des EZMW für Anfang April gezeigt, einmal mit dem Lauf vom 26. März für Anfang April, darunter vom 12. März für Anfang April:

Betrachtet man die zugrunde liegenden Bedingungen in der Atmosphäre, kann der Prognostiker seinen Kunden in Europa vermutlich den kalten Aprilbeginn vorhersagen, sogar mit der Graphik des Modelllaufes vom 12. März. Manchmal ist es ziemlich schwierig, wenn eine Simulation etwas anderes zeigt als man erwartet, der Versuchung zu widerstehen, uneingeschränkt der Simulation zu folgen.

Wir müssen uns immer an die Lage anpassen, und Modelle sind keine Realität, sondern virtuelle Realität. Falls man sie als Realität behandelt, kann man ggf. wilden Schwingungen darin, die alles andere als real sind, nicht Rechnung tragen. Als ausgeprägter Liebhaber von Schnee habe ich noch nie so viele große Schneestürme in der Vorhersage gesehen, bei denen sich dann herausgestellt hatte, dass da nichts dahinter war. Ich habe das Modell geglaubt und wurde euphorisch, nur um dann traurig enttäuscht worden zu sein.

[Einschub des Übersetzers: Der Autor spricht mir hier als ebenfalls erfahrener Wetter-Prognostiker und Kälte-Fan {zu JEDER Jahreszeit!} aus der Seele! Prognostiker sind auch Menschen – mit Vorlieben für bestimmtes Wetter. Auch ich bin jedes Mal enttäuscht, wenn sich eine Kalt-Simulation als falsch entpuppt. Komischerweise kommt es viel öfter vor, dass Kalt-Simulationen falsch sind, wohingegen Warm-Simulationen fast immer zutreffen. Als Mensch und Prognostiker ist es wirklich manchmal schwierig, nicht den Wunsch Vater des Gedankens bei einer Wettervorhersage sein zu lassen. Und so denke ich, dass die derzeitige Warm-Simulation für Ostern zutreffen wird, auch wenn das noch zwei Wochen dauert. {Auf einem andere Blatt steht natürlich, dass man diesmal aufgrund der aktuellen Lage kaum etwas davon haben dürfte} – Ende Einschub].

Damit kommen wir jetzt zum Thema Klima. Wenn man weiß, wie schlecht Modelle sein können, warum sollte man dann Modellen folgen, die bislang durchweg falsch waren. Zwar stimmt es, dass es wärmer geworden ist, aber schauen wir mal auf die Modellsimulationen im Vergleich zur Realität. Dr. John Christy hat dazu folgende Graphik erstellt:

Die unterste gepunktete Linie sind die von Satelliten ermittelten Temperaturen der Erde, der ,Goldene Standard‘ der Beobachtung während dieser Ära. Die Graphik zeigt etwa bis zum Jahr 2010 einen ähnlichen Lauf wie von den Modellen vorgegeben. Darüber liegt eine Linie mit Kästchen, sie repräsentiert Daten der NASA. Die dicke durchgezogene Linie repräsentiert den Mittelwert aller Modelle.

Warum sollte man Behauptungen einer katastrophalen Erwärmung erheben, die auf falschen Modellierungen basieren; die sich auf CO2 anstatt auf die Realität konzentrieren? Komprimierte Zeitskalen übertreiben diese Probleme ebenfalls. Nehmen wir als Beispiel obige Graphik. Man stelle sich vor, dass die 5-Jahre-Intervalle darin doppelt so lang sind. Damit würde die Graphik mehr Raum füllen, und man könnte individuelle Abstufungen besser erkennen. Was man nicht bestreiten kann ist, dass fast 97% aller Modelle viel zu warm sind. Aber es gibt niemanden, der im Fernsehen darauf hinweist, obwohl sogar die Leute hinter der Klimawandel-Agenda immer weiter versuchen, ihr Anliegen als genauso düster oder noch düsterer als derzeit darzustellen. Wie um alles in der Welt kann man derartige Modelle auch nur in Betracht ziehen, wenn man nicht gerade ein Zelot ist, der eine Agenda aus ganz anderen Motiven vorantreibt?

Ein näherer Blick auf die Website von Dr. Roy Spencer zeigt, dass Super-El Ninos für die Erwärmung ursächlich sind, deren Nachwirkungen nur langsam abklingen. Man kann eine Linie vom Beginn bis zum Ende ziehen, die eine stetige Aufwärts-Bewegung zeigt. Das liegt an den Auswirkungen des Wasserdampfes (WV) auf die Temperatur (einfache Korrelation: eine geringe WV-Zunahme hat die größten Auswirkungen dort, wo es am kältesten und trockensten ist). Wenn also ein Super-Nino auftritt und WV in die Luft pumpt, dann erfolgt ein Temperatursprung bis zu einem neuen „Stillstand“, der höher liegt als derjenige zuvor. Das ist meine Hypothese, und ich habe dieser schon vor dem Super-Nino 2015/16 Ausdruck verliehen.

[Einschub des Übersetzers: EIKE-Mitglied Klaus Öllerer hat ebenfalls schon vor vielen Jahren darauf hingewiesen, dass die Temperatur „Sprünge“ (Stufen) macht und deren Niveau sich zwischen den Sprüngen kaum verändert. – Ende Einschub].

Ich weiß nicht, ob Dr. Spencer meiner Hypothese zustimmt oder nicht. Aber mein Punkt ist: Man kann einen Trend ziehen vom kältesten zum wärmsten Punkt und sich die Details ansehen, wie dieser Trend zustande kommt. Nach dem Super-El Nino 1997/98 gab es eine Erwärmung nahe 0,3°C. Die Zunahme nach dem El Nino 2015/16 betrug etwa 0,2°C.

Dies wäre dann direkt den Super-Ninos geschuldet, hat doch der auf dem wärmeren Niveau in das System eingebrachte zusätzliche Wasserdampf den Anstieg geringer sein lassen.Was nicht bestritten werden kann, ist die zyklische Natur der Ozeane, wobei zusammen fallende Warmphasen ein höheres Gleichgewicht stützen. „Hoffnungen“ auf eine Abkühlung durch geringe Sonnenaktivität zurück auf das Niveau von zuvor steht der derzeitige Wärmegehalt der Ozeane entgegen. Dieser ändert sich nur sehr langsam und kann die Folge vieler großräumiger Effekte sein, einschließlich der Sonnenaktivität (darunter 200 Jahre mit hoher Sonnenflecken-Aktivität). Aber der Punkt ist: Eine Vorhersage aufgrund des El Nino von 2015/16 eines neuen, wiederum höheren Stillstandes scheint zumindest nicht ganz abwegig zu sein.

Die Moral der Geschichte: Man kann Modellen nicht trauen, da wir einfach nicht wissen, was alles in dieselben eingeht und wie die Variablen GEWICHTET werden, darunter auch CO2, oder mit welchen Algorithmen das Modell erzeugt wird. Der allgemeine Trend ist derzeit zweifellos aufwärts. Außerdem dürfte es eine Stufen-Funktion sein, und da die Stufen jeweils den Super-Ninos folgten, während die CO2-Zunahme stetig erfolgte, ist es viel wahrscheinlicher, dass die Super-Ninos diese Erwärmung bewirkt haben und nicht CO2. Die Ursachen derartiger Ereignisse sind kaum zu definieren. Worauf ich jedoch schon oft hingewiesen habe: Im Gegensatz zu irgendwelchen Hot Spot-Spielchen über den Tropen ist die Atmosphäre trockener geworden, das heißt weniger Wolken und mehr Sonneneinstrahlung in den ENSO-Gebieten, was eine Abkühlung verzögern könnte. Aber das ist eine Relation zwischen Sonne und Ozean, nicht von CO2. Angesichts des Umstandes, dass der Mensch der Atmosphäre nur etwa 25% des CO2-Gehaltes derselben hinzufügt und die Natur die anderen 75%, vieles davon in den Ozeanen, sieht es so aus, als würde die Natur den Einfluss des Menschen weit überkompensieren. Vertraut man also Modellen, die mit CO2-Rückkopplungen beladen sind und die einen allgemeinen Trend zeigen, den auch die Natur aufweist, den die Modelle aber erheblich übertreiben, dann sollte man sehr skeptisch sein, wenn es um Politik einerseits und Prognosen andererseits auf der Grundlage dieser Modelle geht.

Ich sehe in einigen Modellen einen Schneesturm für meinen Wohnort um den 1. April. Da ist es wieder! Aber vielleicht kommt er ja diesmal wirklich.*

[*Der Beitrag datiert vom 28. März. Leider weiß man nicht, wo Bastardi wohnt, aber ein Schneesturm wird am 1. April in den US-Staaten Wyoming und South Dakota erwartet. Anm. d. Übers.]

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore.

Link: https://www.cfact.org/2020/03/28/model-mayhem-in-the-world-of-weather-and-climate/

Übersetzt von Chris Frey EIKE

Anhang: Ein Wetter-Prognosemodell, hier das Global Forecasting System (GFS) des amerikanischen Wetterdienstes. Jede bunte Linie entspricht einem Modelllauf mit jeweils ein wenig veränderten Anfangsbedingungen. Jeder kennt das Prinzip, dass sich kleinste Unterschiede immer mehr aufschaukeln. Gezeigt ist oben der Modelllauf des GFS von Montag, dem 30 März 2020, 06 UTC. Nach 24 Stunden läuft alles noch gleich (links), nicht aber in einer Simulation bis Ostersonntag, 12 UTC (rechts) sieht das völlig anders aus. Wer behauptet, dass man da für Ostern jetzt schon eine Prognose abgeben kann, der… Und das sind nur zwei Wochen! Wie eine solche Simulation wohl für 80 Jahre im Voraus aussieht …




Mojib Latif beim Schummeln ertappt

Unser Leser Dr. Wilfried Schnelle stieß am 15. März 2018 auf ein Interview von Mojib Latif im Deutschlandfunk. Dort ging Latif anlässlich des 30. Geburtstags des IPCC seiner liebsten Beschäftigung nach und spann eifrig Klimaalarm:

30 Jahre Weltklimarat: Erreichen des 1,5-Grad-Ziels “so gut wie ausgeschlossen”
Vor 30 Jahren wurde der Weltklimarat ins Leben gerufen – der Grund: man verdächtigte den Menschen, Hauptverursacher des Klimawandels zu sein. Das gelte heute als erwiesen, sagte er Klimaforscher Mojib Latif im Dlf. Dennoch habe der IPCC eine Aufgabe zu erfüllen: die Prognosen immer genauer zu machen.

Dr. Schnelle entdeckte zwei besonders bemerkenswerte Stellen. Hier Nummer 1:

Enorme Übereinstimmung bei Computer-Simulationen

Ehring: Es gibt ja immer wieder alarmierende Meldungen über das Klima, dass zum Beispiel der Meeresspiegel schneller steigt, als man bisher gedacht hat. Hat der IPCC am Anfang die Entwicklung noch unterschätzt, oder ist es ungefähr so gekommen, wie man damals vermutet hat?

Latif:Ganz grob ist es schon ungefähr so gekommen, wie man vermutet hatte.Wenn man die ersten Computer-Simulationen hernimmt und vergleicht, was in den Jahrzehnten danach tatsächlich passiert ist, dann ist doch eine enorme Übereinstimmung zu erkennen – nicht nur was die Entwicklung der globalen Durchschnittstemperatur angeht, sondern vor allen Dingen auch, was die regionale Verteilung der Erwärmung angeht. Denn es gibt sehr starke regionale Unterschiede und die Region beispielsweise, die sich am stärksten erwärmt hat bisher, ist die Arktis. Dort verläuft die Erwärmung doppelt so schnell wie im globalen Durchschnitt.

Das ist schon ziemlich erschreckend, was Latif da erzählt. Denn in Wirklichkeit hat sich das Klima weit schwächer erwärmt als von den IPCC-Experten prognostiziert. Die reale Temperaturkurve bewegt sich am unteren Ende des Vorhersagespektrums. Eine der Hauptursachen ist der unerwartete “Slowdown” der Erwärmung seit 1998, der bis kurz vor dem kräftigen El Nino 2016 sogar ein regelrechter Hiatus (Erwärmungsstopp) war. Wir haben über die Prognosefehlschläge an dieser Stelle immer wieder berichtet (hier, hier, hier, hier). Latif schert sich nicht um die unbequemen Fakten, erzählt tolle Geschichten von “enormen Übereinstimmungen”, die wohl vor allem nur er selber gesehen hat.

Und hier auch schon das zweite Highlight des Interviews:

Szenario Erderwärmung auf zwei oder fünf Grad

Ehring: Der IPCC betreibt ja selbst keine Wissenschaft. Wie ist die Arbeitsweise?

Latif: Der IPCC trägt zusammen, was in dem Berichtszeitraum an wissenschaftlichen Studien erschienen ist, und bewertet das dann auch. Man spricht im Englischen vom Assessment. Das heißt, dass man die Dinge zusammenträgt und bewertet. Eigentlich muss man sagen, der IPCC gibt auch immer einen Unsicherheitsbereich an. Der wird aber meistens nicht wahrgenommen, denn eine große Unbekannte bleibt natürlich. Die wird auch nie weggehen. Das ist nämlich die Frage, wie werden wir Menschen uns eigentlich in der Zukunft verhalten. Wird es so etwas wie eine globale Energiewende geben oder nicht, und wenn ja, wie schnell wird sie erfolgen. Deswegen streuen die Ergebnisse auch – nicht nur deswegen, aber vor allen Dingen deswegen -, und dann liest man hin und wieder, dass die Erwärmung bis zum Ende des Jahrhunderts vielleicht zwei Grad beträgt oder möglicherweise fünf Grad, und dann wundern sich die Menschen, wie kann denn das eigentlich angehen. Das liegt nicht daran, dass das eine Modell zwei Grad sagt und das andere Modell fünf Grad. Das liegt einfach an den Annahmen, an dem Szenario, das wir annehmen für die zukünftige Entwicklung der Treibhausgase in der Luft.

Wieder haben wir Latif beim Mogeln ertappt. Er erweckt hier den Eindruck, als ob die für die Modellsimulationen entscheidende Größe
der CO2-Klimasensitivität genau bekannt wäre und die Unsicherheit der Temperaturprognosen vor allen Dingen bei den Emissionspfaden liegt. Großer Quatsch! Die Größe des Intervalls für die CO2-Klimasensitivität im letzten IPCC-Bericht (AR5) von 1,5 bis 4,5 °C steht dieser impliziten Annahme eindeutig entgegen. Die Unsicherheit der Erwärmungswirkung des CO2 beträgt Faktor drei! Das könnte zum Beispiel eine Spanne von 2°C bis 6°C Erwärmung locker alleine erklären. Von Latif wird dies im Interview verschwiegen. Ehring hakt nicht nach, vielleicht weil er es nicht besser weiß. Insgesamt eine bedenkliche Irreführung der Öffentlichkeit. Das Schema ist übrigens keine Neues. Bereits im Online WWF-Klimakurs hat man es mit dieser Masche versucht. Und wer war bei der Erstellung des Kurses beteiligt? Dreimal dürfen Sie raten: Mojib Latif!

Übernommen von „Die kalte Sonne“ hier

Weitere Beispiele für Latif´s Schummeln finden Sie hier




Wenn das Modell sich selbst modelliert

… das ist jetzt bizarrer Wahnsinn für mich, aber hier ist, was Eric Worrall bei Frau Dr. Sophie Lewis [Doktor der Philosophie] gefunden hat

Es stellt sich heraus, dass meine Arbeit jetzt als Klima-Wissenschaftlerin nicht ganz gleich geht mit der Art, wie wir in der Regel über Wissenschaft sprechen und wie Wissenschaft funktioniert…

Update durch den Übersetzer; 18.08.2017, 19:35

Die Überschrift und der danach folgende Absatz haben mir keine Ruhe gelassen.

Original:

 1. Methods aren’t always necessarily falsifiable

Falsifiability is the idea that an assertion can be shown to be false by an experiment or an observation, and is critical to distinctions between “true science” and “pseudoscience”.

So würde ich es jetzt übersetzen:

 1. Methoden sind nicht immer notwendigerweise falsifizierbar  überprüfbar  

Falsifizierbarkeit   Überprüfbarkeit ist die Vorstellung, dass eine Behauptung durch ein Experiment oder eine Beobachtung bestätigt oder als falsch dargestellt werden kann und für die Unterscheidung zwischen „wahrer Wissenschaft“ und „Pseudowissenschaft“ wesentlich ist.

„Falsifiability“ wird in den Wörterbüchern mit „Falsifizierbarkeit“; „falsibiable“ mit „fälschen, oder auch „als falsch nachweisen“ . Im Original würde dann „false“ nur „falsch“ heißen, was aber m.e. unterstellt, das Frau Dr. Lewis von vornherein annimmt, dass wenn Klimamodelle geprüft werden, diese sich nur als falsch heraus stellen können!?

Was ist Ihre Meinung?

 

Klimamodelle sind wichtige und komplexe Werkzeuge für das Verständnis des Klimasystems. Sind Klimamodelle falsifizierbar? Sind sie Wissenschaft? Ein Test der Falsifizierbarkeit erfordert eine Modellprüfung oder eine Klimabeobachtung, die zeigt, dass eine globale Erwärmung durch erhöhte menschlich erzeugte Treibhausgase unwahr ist. Es ist schwierig, einen Test von Klimamodellen im Voraus vorzuschlagen, der falsifizierbar ist.

Die Wissenschaft ist kompliziert – und passt nicht immer zu der vereinfachten Version, die wir als Kinder lernen.

Diese Schwierigkeit bedeutet nicht, dass Klimamodelle oder Klimawissenschaft ungültig oder nicht vertrauenswürdig sind. Klimamodelle werden sorgfältig entwickelt und ausgewertet, basierend auf ihrer Fähigkeit, die beobachteten Klimatrends und Prozesse genau zu reproduzieren. Aus diesem Grund haben Klimatologen Vertrauen in sie [ihre Modelle] als wissenschaftliche Werkzeuge und nicht wegen der Ideen rund um die Falsifizierbarkeit.

Seit einiger Zeit sage ich, dass ein Computermodell nur eine solide Inkarnation der Überzeugungen, Theorien und Missverständnisse der Programmierer ist. Allerdings gibt es eine schöne neue Arbeit namens The Effect of Fossil Fuel Emissions on Sea Level Rise: An Exploratory Study [Die Auswirkungen von Treibstoff Emissionen auf den Anstieg des Meeresspiegels], in der ich eine kuriose Aussage fand. Die Studie verdient das Lesen der Erkenntnisse wegen, aber es gab einen Satz darin, der mir als eine natürliche Erweiterung von dem, was ich gesagt habe vorkommt, aber eine, die ich nie in Betracht gezogen hätte.

WUWT: Figure 40: Galveston Split-half test: First 80 years, Jamal Munshi, August 2017

https://www.researchgate.net/figure/318788982_fig22_Figure-40-Galveston-Split-half-test-First-80-years

 

Der Autor, Jamal Munshi, (es stellte sich heraus, dass er bei meiner Alma Mater arbeitet, etwa 45 Minuten von wo ich wohne], beschrieb zuerst die Ergebnisse anderer Wissenschaftler in Bezug auf Meeresspiegel Beschleunigung. Er führt an:

Diese Arbeit ist eine kritische Bewertung der Forschungsergebnisse. Drei Schwächen In dieser Reihe von empirischer Forschung sind bekannt.

 Erstens stört die Verwendung von Klimamodellen die Gültigkeit des empirischen Tests, weil Modelle ein Ausdruck der Theorie sind und ihre Verwendung die Unabhängigkeit des empirischen Theorietests aus der Theorie selbst kompromittiert.

Zweitens dienen Korrelationen zwischen kumulativen SLR und kumulativen Emissionen nicht als empirische Evidenz, da Korrelationen zwischen kumulativen Werten von Zeitreihendaten störend sind (Munshi, 2017).

Und drittens, der in der Regel angenommene Glaube, dass die Beschleunigung in SLR [sea level rise] an und für sich als Beweis für seine anthropogene Ursache dient, ist eine Form der zirkelförmigen Argumentation, weil sie davon ausgeht, dass die Beschleunigung unnatürlich ist.

 Nun, jeder der o.g. Punkte ist in der Tat eine verheerende Kritik zum Stand der Wissenschaft über die Beschleunigung des Meeresspiegels. Allerdings war ich besonders vom ersten Punkt betroffen:

die Verwendung von Klimamodellen (stört) die Gültigkeit des empirischen Tests, weil Modelle ein Ausdruck der Theorie sind und ihre Verwendung die Unabhängigkeit des empirischen Theorietests aus der Theorie selbst kompromittiert.

Genau…! Die Modelle sind ein Ausdruck der Theorie, dass CO2 eine Erwärmung verursacht. Als Ergebnis [ … eine Beschreibung der CO2 Theorie] sind sie damit völlig unnütz zur Prüfung dieser Erwärmungstheorie.

Nun sagt die von Eric Worrell zitierte Wissenschaftlerin, dass die Wissenschaftler den Modellen glauben, weil diese „Klimatrends und Prozesse akkurat wiedergeben“. Genau dafür sehe ich jedoch nur sehr wenige Beweise. Im Gegenteil, die Temperaturänderungen seit Beginn dieses Jahrhunderts haben die Modelle wild überschätzt. Ja, die Modelle können die historischen Aufzeichnungen reproduzieren, wenn Sie auf die Ergebnisse mit nur einem Auge und in der Dämmerung schielen … aber das ist, weil die Modelle durch ihre Programmierer evolutionär darauf trainiert worden sind, um das zu zeigen – die, die die Vergangenheit nicht reproduzieren konnten, starben im Schneideraum [Doppeldeutig]. Allerdings, für irgendetwas anderes, sagen wir mal Niederschlag und Temperatur an verschiedenen Orten, taugen sie nur sehr schlecht.

Vor kurzem habe ich gezeigt, dass das Ergebnis des „CCSM3 climate model“ (… die modellierte globale Temperatur) durch einfache Verzögerung und Reskalierung der Eingangsgrößen mit einem hohen Maß an Genauigkeit emuliert werden kann … trotz der Komplexität des Modells ist das Ergebnis eine einfache Funktion der Eingabe.

Also … daher:

  • können wir den Modellen nicht vertrauen, weil ihre Vorhersagen durch ihre Programmierer [nach Wunsch und Auftrag] eingebaut werden und
  • wir die Ergebnisse der berechneten globalen Temperatur mit einer einfachen Manipulation ihrer Eingangsgrößen erzwingen können [„emulieren“ ist das Fachwort] und
  • sie sind eine Beschreibung der CO2-Theorie, damit sind sie völlig unnütz zur Prüfung dieser Theorie.

… und dann … für was genau sind diese Modelle denn gut?

Ja, ich bin mir bewusst, dass alle [nicht nur Klima-] Modelle falsch sind, aber einige Modelle sind nützlich … aber sind Klimamodelle nützlich? Und wenn ja, für was genau sind diese Modelle nützlich?

***

Ich belasse es dabei, um Sie alle mitzunehmen. Ich zögere, noch mehr dazu zu sagen, denn ich weiß, dass jedes Wort, das ich schreibe, die Chancen erhöht, dass ein charmanter Kerl auf 1sky1 oder Mosh [ähnlich Twitter oder Facebook] kommen wird, um mir in sehr unangenehmen Worten zu erzählen, dass ich es falsch mache, weil ich so dumm bin, und dann sich schlicht verweigern wird, zu demonstrieren, wie man es denn richtig macht.

Meistens habe ich kein Problem damit, aber es ist bereits nach Mitternacht hier, die Sterne sind zu sehen und mein Blutdruck ist ganz gut, also lasse ich jemand anderen Spaß haben …

Meine Grüße an alle, Kommentatoren und Mitleser, sogar 1sky1 und Mosh, ich wünsche euch allen nur das Beste,

Willis Eschenbach

Meine übliche Bitte: Missverständnisse fangen leicht an und können ewig dauern. Ich bitte höflich, dass die Kommentatoren EXAKT DIE WORTE WIEDERGEBEN; MIT DENEN SIE NICHT EINVERSTANDEN SIND, nur so können wir alle Ihren Einwand verstehen.

Meine zweite Bitte: Bitte nicht aufhören, nachdem sie nur behauptet haben, dass ich den falschen Datenset oder die falsche Methode benutze. Ich kann wohl falsch liegen, aber solche Beobachtungen sind nicht sinnvoll, bis man einen Link zum richtigen Datenset oder eine Erklärung der richtigen Methode hinzufügt.

Erschienen auf WUWT am 11.08.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/08/11/when-the-model-models-itself/

 

Bei den Recherchen zu diesem Beitrag fand ich folgende Links, die für unsere Leser von Interesse sein könnten; der Übersetzer.

CESM „open source“ des CCSM3

Das gemeinschaftliche Klimasystemmodell (CCSM) ist ein gekoppeltes Klimamodell zur Simulation des Klimasystems der Erde. Das CCSM besteht aus vier separaten Modellen, die gleichzeitig die Erdatmosphäre, den Ozean, die Landoberfläche und das Meereseis simulieren und eine Zentralkomponente. Die CCSM ermöglicht es Forschern, grundlegende Forschungen über die Vergangenheit, die gegenwärtigen und zukünftigen Klimazustände der Erde durchzuführen.

 

ZAMG Zentralanstalt für Meteorologie und Geodynamik, Wien

Es wird sehr viel über Wetter, Klima und Modelle erklärt.

Was mir auffiel: bei „Wetter und Klima“ versucht man Klima als eigenständiges Phänomen darzustellen, Wetter hat für den unbedarften Leser nichts mit Klima zu tun:

… Das Wetter ist ein Teilprozess innerhalb des Klimasystems. Auch das Wetter trägt zum großräumigen Energieaustausch und somit zur Erhaltung eines globalen, energetischen Gleichgewichts bei. Allerdings wird es von kurzfristigen Phänomenen, z.B. von Tiefdruckgebieten, gesteuert.

 




Unsicherheiten und Fehler bei Schätzungen des Strahlungs­antriebs sind 10 bis 100 mal größer als der gesamte Strahlungs­effekt zunehmen­den CO2-Gehaltes

Die Charakterisierung als „Leugner“ stammt aus einem Interview mit Joe Kernen von CNBC, in welchem Pruitt gefragt wurde, ob er glaube, dass sich CO2 als der „Kontroll-Knopf“ des Klimas erwiesen habe. Pruitt erwiderte „das wissen wir noch nicht“ und dass es „erheblichen Streit gibt über die Größenordnung der Auswirkung“. Aber er sagte auch: „Nein, ich denke nicht, dass CO2 primär zum Klimawandel beiträgt“. Offensichtlich ist das alles, um sogleich als Klima-„Leugner“ gebrandmarkt zu werden.

Scott Pruitt: „Nein, ich glaube, dass die präzise Messung der Auswirkungen menschlicher Aktivitäten auf das Klima eine sehr große Herausforderung ist, und es gibt hier noch gewaltige Meinungsverschiedenheiten hinsichtlich des Ausmaßes der Auswirkung. Darum – nein, ich würde nicht der Aussage zustimmen, dass CO2 einen primären Beitrag leistet zu der globalen Erwärmung, die wir erleben. Aber das wissen wir noch nicht. … Wir müssen die Debatte fortsetzen, und wir müssen Begutachtung und Analysen fortsetzen“.

In einer Analyse der Washington Post zu Pruitts Kommentaren mit dem Titel „EPA Chief’s Climate Change Denial Easily Refuted…” [etwa: Leugnung des Klimawandels seitens EPA-Chef leicht widerlegt…] war in der Antwort des Kommentators das letzte Statement von Pruitt über die Notwendigkeit enthalten, das Ausmaß der menschlichen Einwirkung weiter zu diskutieren: „Das ist das ganze Zentrum der Wissenschaft. Man stellt immer weiter Fragen“.

In der Antwort zu diesem ziemlich fundamentalen Punkt scheint der Journalist Philip Bump der Zeitung der Ansicht zuzustimmen, dass Fragen und Diskussionen in der Wissenschaft immer weiter gehen müssen (da dies in der Tat „das ganze Zentrum der Wissenschaft“ ist). Aber gleich danach widersprach er sich selbst:

Nun, sicher. Aber im Zentrum der Wissenschaft steht auch, die Antworten auf jene Fragen zu akzeptieren, wenn diese entschieden sind. Und in der wissenschaftlichen Gemeinschaft ist die Antwort auf die Frage der Verbindung zwischen Treibhausgasen und Erwärmung längst entschieden“.

Also, weil offenbar „entschieden ist“, dass CO2 Erwärmung oder Abkühlung verursacht jeweils bei Zu- oder Abnahme, sollten wir nicht nach dem Ausmaß fragen, bis zu dem die Klimamodelle korrekt den Einfluss zu- oder abnehmenden CO2 zeigen, oder eine wie starke Erwärmung oder Abkühlung durch CO2-Fluktuationen verursacht ist relativ zu anderen, das Klima treibenden Faktoren.

Und warum sollten wir davon Abstand nehmen, Fragen nach dem relativen Einfluss des CO2-Antriebs bzgl. des Klimas zu stellen? Weil diese Fragen noch nicht entschieden … oder beantwortet sind. Nicht einmal annähernd. Schließlich sind die Unsicherheits- und Fehler-Bandbreiten im Zusammenhang mit der Modellierung radiativer Energieänderungen im System Erde 10 bis 100 mal größer sind als die Gesamtstärke des Antriebs, den man CO2-Änderungen zuordnet.

1. Strahlungsantrieb durch CO2 von 2000 bis 2010 war lediglich 0,2 W/m²

Das IPCC hatte festgestellt, dass das „globale Klima bestimmt wird durch die Strahlungsbilanz des Planeten“. Falls das Strahlungsenergie-Budget (einfallende vs. ausgehende Strahlung) positiv wird (ausgedrückt in Watt pro Quadratmeter oder W/m²) gibt es Erwärmung. Falls es negativ wird, gibt es Abkühlung. Das IPCC geht davon aus, dass positive Energiebilanzen seit Jahrzehnten auftreten, fast ausschließlich getrieben durch die Zunahme anthropogener CO2-Emissionen.

Den Klimamodellen zufolge beträgt der Gesamt-Klimaantriebs-Effekt der Zunahme des atmosphärischen CO2-Gehaltes von rund 120 ppm während der ~165 Jahre seit 1750 1,8 W/m².

Einer im Jahre 2015 im Journal Nature veröffentlichten Studie zufolge hat die CO2-Konzentration um 22 ppm während der ersten 10 Jahre des 21. Jahrhunderts zugenommen. Der Strahlungs-(Antriebs-)Effekt dieser CO2-Zunahme um 22 ppm wurde mit 0,2 W/m² modelliert. Folglich kamen zu dem Gesamt-Strahlungsantrieb von 1,8 W/m² seit 1750 noch 0,2 W/m² während der ersten Dekade dieses Jahrhunderts hinzu.

Feldman et al., 2015

2. Das Strahlungs-Energie-Ungleichgewicht von 2000 bis 2010 war 0,6 W/m²

In einer Studie in Nature Geoscience aus dem Jahr 2012 mit dem Titel „An update on Earth’s energy balance in light of the latest global observations” von Stephens et al. (2012) wurde das Strahlungs-Energie-Ungleichgewicht der Dekade von 2000 bis 2010 als positiv berechnet, wie erwartet. Interessanterweise jedoch war das positive Energiegleichgewicht von 0,6 W/m² 3 mal größer als der Antriebs-Wert (0,2 W/m²), welchen man im gleichen Zeitraum der CO2-Zunahme zugeordnet hatte.

Stephens et al., 2012

Die gegenwärtige überarbeitete Darstellung der globalen mittleren Energiebilanz für die Dekade 2000 bis 2010 wird präsentiert … für diesen Zeitraum beträgt das mittlere Ungleichgewicht 0,6 W/m², wenn diese TOA-Flüsse in Abhängigkeit betrachtet werden mit dem Best Estimate des ozeanischen Wärmegehaltes seit 2005.

3. 67% (0,4 W/m²) der Energie-Zunahme von 2000 bis 2010 gehen nicht auf CO2 zurück

Falls das Ungleichgewicht im Energiehaushalt im Zeitraum 2000 bis 2010 0,6 W/m² und der modellierte Strahlungsantrieb 0,2 W/m² im gleichen Zeitraum betragen hatte, bedeutet das, dass hier ein positiver Antrieb von 0,4 W/m² wirksam war, der nicht der Zunahme der CO2-Konzentration geschuldet war. Dies zeigt, dass die Schlussfolgerung des IPCC, der zufolge die gesamte oder fast die gesamte Erwärmung der jüngeren Zeit auf die Zunahme anthropogener CO2-Emissionen zurückgeht, nicht gestützt wird durch die Schätzungen des Energie-Ungleichgewichtes an der der Oberfläche. Zwei Drittel des Klimaantriebs müssen irgendeinem unbekannten Mechanismus oder Mechanismen zugeordnet werden, welche das IPCC irgendwie bei Analysen zur Ursachenforschung nicht identifizieren konnte. Und falls nur 33% des jüngsten Klimaantriebs anthropogenen Ursprungs sind und 67% auf unbekannte Ursachen zurückgehen – woher kommt dann die Sicherheit zu behaupten, dass Menschen den Klimawandel treiben?

4. Unsicherheit bzgl. Energie-Änderung ist 10 bis 100 mal größer als CO2-Antrieb

Spricht man von Sicherheit – oder, angemessener, von Unsicherheit – hinsichtlich des Klimaantriebs oder Werten des Energie-Ungleichgewichtes, betonen Stephens et al. die unerlässliche Unsicherheit der Schätzungen des Energie-Ungleichgewichtes von 2000 bis 2010: enorme ±17 W/m².

Eine Unsicherheits-Bandbreite von 17 W/m² hinsichtlich der Schätzung des Energiegleichgewichtes (0,6 W/m²) bedeutet, dass die tatsächliche Energiebilanz irgendwo zwischen -16,4 W/m² bis +17,6 W/m² liegen kann. Eine solche Bandbreite macht die 0,2 W/m² CO2-Antrieb bedeutungslos, ist doch die Unsicherheit des Volumens der Energieänderung von 2000 bis 2010 85 mal größer als der dem CO2 zugeordnete Antrieb im gleichen Zeitraum.

Stephens et al., 2012

Dieses kleine Ungleichgewicht (0.6 W/m²) ist um über 2 Größenordnungen (100 mal) kleiner als die individuellen Komponenten, welche diesen Wert festlegen, und kleiner als der Fehler innerhalb eines jeden Flusses.

Die Gesamt-Energiebilanz ist die Summe der individuellen Flüsse. Die gegenwärtige Unsicherheit bei dieser Gesamt-Energiebilanz an der Oberfläche ist groß und macht bis zu 17 W/m² aus. Diese Unsicherheit ist um eine Größenordnung (10 mal) größer als die Änderungen der Gesamt-Oberflächenflüsse, die assoziiert sind mit zunehmenden Treibhausgasen in der Atmosphäre.

Der genannte Wert des sensible heat flux ist eine Kombination der sensible heat fluxes von Festland und Ozeanen mit einer einfachen Wichtung auf der Grundlage von Festlands-/Ozeandaten. Der Fluss-Wert von 24 W/m² ist ebenfalls größer als zuvor angenommen und bleibt erheblich unsicher, wie die Bandbreite von 14 bis 34 W/m² belegt. Diese resultiert aus unterschiedlichen Schätzungen des Festlands-Flusses. Es gibt keine definitive Messung der Unsicherheit dieses Flusses, und die die angegebene Unsicherheits-Bandbreite lässt kaum eine Beurteilung zu, welcher Wert der wahrscheinlichste Wert ist.

Sogar das IPCC räumt ein, dass die Unsicherheit in Wärmeflüssen bis zu 20 W/m² erreichen kann, und diese Unsicherheit marginalisiert die weniger als 2 W/m² des Gesamt-Strahlungsantriebs anthropogener CO2-Emissionen während der letzten paar Jahrhunderte zur Bedeutungslosigkeit.

IPCC AR4 (2007)

Unglücklicherweise sind die Gesamtflüsse von Wärme und Wasser nicht gut erfasst. Normalerweise werden sie abgeleitet aus Beobachtungen in anderen Bereichen, wie Temperatur und Wind. Als Folge dieser schlechten Erfassung ist die Unsicherheit der aus Beobachtungen gewonnenen Schätzung groß – um die Größenordnung von Zehner Watt pro Quadratmeter für den Wärmefluss, sogar im zonalen Mittel.

IPCC AR5 (2013)

Die Gesamt-Unsicherheit der jährlich gemittelten Ozeanwerte für jeden Term wird in der Bandbreite von 10 bis 20% liegen. Im Falle des Terms des latenten Wärmeflusses korrespondiert dies mit einer Unsicherheit von bis zu 20 W/m². Zum Vergleich, Änderungen der mittleren globalen Werte individueller Wärmefluss-Komponenten, die durch den anthropogenen Klimawandel seit 1900 erwartet werden, liegen auf einem Niveau <2 W/m² (Pierce et al. 2006).

Frank, 2008

Es stellt sich heraus, dass die Unsicherheiten hinsichtlich der energetischen Reaktionen des irdischen Klimasystems über 10 mal größer sind als der gesamte energetische Effekt eines gestiegenen CO2-Gehaltes.

5. Das IPCC verschleiert Unsicherheiten und Fehler beim Strahlungs-Energiewandel

Befürworter der Ansicht, dass CO2 der „Kontrollknopf des Klima ist, wollen die Aufmerksamkeit von den Unsicherheiten und Fehlern der Klimamodellierung natürlich ablenken. Genauso hat das IPCC fortwährend Daten verschwinden lassen, die Zweifel an der „Konsens“-Position säen (welcher zufolge die meisten Klimaänderungen von anthropogenen CO2-Emissionen getrieben worden sein sollen seit Mitte des 20. Jahrhunderts).

Um die Unsicherheits- und Fehlerbandbreiten in den Schätzungen des Strahlungsantriebs in den Klimamodellen aufzufinden, muss man sich ganz bewusst daran machen, das esoterische „Begleitmaterial“ eines jeden Reports zu lokalisieren. Das IPCC wagt es nicht, Schätzungen massiver Klimamodellierungs-Fehler und -unsicherheiten zu veröffentlichen an Stellen, wo man sie am wahrscheinlichsten findet.

Frank, 2008

Man muss Kapitel 8 aufschlagen und besonders das Begleitmaterial [Supplementary Material] betrachten im jüngst veröffentlichten AR 4, um die graphische Darstellung der Fehler in den GCMs zu finden, dargestellt in W/m². Derartige offene Darstellungen von Fehlern und Unsicherheiten erscheinen nicht in den SPMs oder in der Techincal Summary, also dort, wo öffentliche Institutionen sie viel wahrscheinlicher ersehen würden.

Supplementary Material aus Kapitel 8, IPCC AR4

Abbildung S8.5 zeigt, dass GCM-Fehler in der „mittleren kurzwelligen Strahlung in den Weltraum“ um die 25 W/m²-Linie schwankt.

Die Fehler der ausgehenden langwelligen Strahlung, Abbildung S8.7, sind ähnlich groß (~20 W/m²)

6. „Woher stammt die Sicherheit, dass CO2 einen großen Einfluss auf das Klima hat?“

Falls also die Modelle so hoffnungslos voller Fehler und Unsicherheiten stecken, dass ein anthropogenes Strahlungsantriebs-Signal nicht vom Rauschen unterschieden werden kann, oder falls die Größenordnung der den Menschen zugeordneten Erwärmung ein Zehntel bis ein Hundertstel der Bandbreite von Fehlern und Unsicherheiten ausmachen – warum werden dann all jene, die es wagen, das Ausmaß in Frage zu stellen, mit dem Menschen das Klima der Erde beeinflussen, als „Leugner“ der Wissenschaft gebrandmarkt?

Wie genau lautet die Wahrheit, welche die Klima-„Leugner“ leugnen?

Falls die Unsicherheit größer ist als der Effekt, wird der Effekt selbst irrelevant. Falls der Effekt selbst diskussionswürdig ist, von was redet das IPCC dann überhaupt? Und woher stammt die Sicherheit einer großen Auswirkung durch CO2 auf das Klima? – Dr. Patrick Frank, “A Climate of Belief

– See more at: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpuf

Link: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpbs

Übersetzt von Chris Frey EIKE




ClimateGate 18: Die Probleme in den Modellen zur globalen Erwärmung!

So werden wir beispielsweise – obgleich es überzeugende Anzeichen dafür zu geben scheint – nicht von anpasserischen Politikern, sich selbst bedienenden Lobbyisten, fanatischen Umweltaktivisten und gierigen Wallstreet-Manipulatoren geführt. Das ist eine Illusion.

Doch es gibt einen noch stärkeren (aber kaum sichtbaren) Antreiber hinter dem Anschein. Dieser Unsichtbare ist der Computer-Programmierer. Und wie im Märchen vom „Zauberer von Oz“ soll niemand diesem wirklichen Schicksalslenker auf die Finger schauen.

Als Computer-Programmierer will ich hier alles über den „Zauberer“ ausplaudern. Auch wenn mich das vermutlich meine Mitgliedschaft im Club (auch als Physiker und Umweltaktivist) kosten wird.

Der erste Hinweis auf Probleme wird schon deutlich in der Wikipedia-Erklärung über Computer-Programmierer gegeben: 

Dieses Fach unterscheidet sich von vielen anderen technischen Berufen darin, daß Programmierer im allgemeinen weder Zulassungsprüfungen bestehen noch irgendwelche anderen standardisierten (oder amtlichen) Befähigungsnachweise erbringen müssen, um sich „Programmierer“ oder sogar „Software-Ingenieur“ nennen zu können.

Hmmm. 

Als Laie kann ich mir das nur so erklären, dass die ganze Computer-Programmiererei darin besteht, Annahmen zu treffen und diese in mathematische Gleichungen umzusetzen.

Die ganz große Frage lautet: Kann man wirklich komplexe Lagen aus der wirklichen Welt genau in Einsen und Nullen übersetzen? HAL [Anm. d. Ü.: die Computerstimme aus dem Film „Odyssee im Weltraum“] mag das glauben, doch höher verarbeitende Gehirne sagen Nein. Trotzdem wird es immer wieder mit sehr begrenztem Erfolg versucht. Schauen wir ein wenig genauer hin.

Fangen wir mit einem Beispiel an, wie Annahmen in einem Modell getroffen werden.

Ich habe ein Computer-Programm für Schuldeneintreiber geschrieben. Eine typischer Hergang war, dass dem Schuldner ein Termin für eine Zahlung genannt worden wäre und die Inkasso-Gesellschaft diese nicht rechtzeitig erhalten hätte. Welche Reaktion ist daraufhin angemessen?

In dieser Situation kontaktiert das Computer-Programm automatisch den Schuldner. (Man bedenke, dass es bei den Inkasso-Firmen Tausende von Schuldnern gibt und dass es aus Zeitgründen einfach unmöglich ist, durch persönliche Intervention jeden einzelnen Fall zu prüfen und zu verfolgen.)

Was soll also im Computerbrief an den Schuldner stehen? Nun, es hängt von den Annahmen des Computer-Programmierers ab.

Solche Situationen versucht der Programmierer auf mathematische Optionen zu vereinfachen.

Wie entscheidet der Programmierer (im Modell) über „Ja“ oder „Nein“? Also, da werden andere Hinweise benutzt (z. B. ob frühere Zahlungen rechtzeitig geleistet wurden), um eine statistische Wahrscheinlichkeit zu erzeugen. 

In einer komplexen Lage (z. B. Schuldeneintreibung, Klimawandel, Finanz-Derivate) kann leicht ein ganzes Hundert solcher Wahlmöglichkeiten entstehen, das zu behandeln ist.

Um die Implikationen zu verstehen, soll nur der Fall betrachtet werden, wo es zehn derartige Entscheidungspunkte gibt – jeder mit einer möglichen „Ja-“ oder „Nein-“ Entscheidung. Am Ende des Ablaufs stehen 210  (d. h. 1024) mögliche Antworten. Das bedeutet eine ganze Menge von möglichen Schlussfolgerungen.

Leider gibt es aber noch viel mehr Möglichkeiten! Die Annahme, dass diese Schuldner-Situation auf eine „Ja“ oder „Nein“-Antwort verdichtet werden könnte, trifft nicht zu. Denn es gibt viele weitere reale Lagen, die sich einem „Ja“ oder „Nein“ entziehen.

Zum Beispiel: Was ist, wenn der Schuldner niemals zu Anfang eine Nachricht erhalten hätte, dass die Zahlung zu dem Termin fällig war, den das Inkasso-Unternehmen überwachte? Oder: Was, wenn der Schuldner das Geld überwiesen hätte und die Zahlung fehlgeleitet wurde? Oder: Was, wenn der Schuldner die Zahlung an den ursprünglichen Gläubiger geleistet hätte, anstelle an das Inkasso-Unternehmen? Oder: Was, wenn der Schuldner das Geld rechtzeitig überwiesen und das Inkasso-Unternehmen fälschlicherweise die Gutschrift nicht rechtzeitig bewirkt hätte? Usw., usw.

In einem korrekten Computer-Modell müssen alle derartigen Lagen richtig behandelt werden (gesetzlich, zeitlich usw.). Erkennen Sie nun die Komplexität anhand dieses ganz einfachen Beispiels einer nicht fristgerechten Zahlung?

Aber da gibt es noch einen bisher nicht erwähnten weiteren wichtigen Faktor (jetzt schon Nr. 4).  Was ist, wenn der Schuldner nicht bezahlt hat, dies aber darauf zurückzuführen ist, dass sein Kind multiple Sklerose hat und er nicht krankenversichert ist? Wie schreibt ein Computer-Programmierer den Code für so abstrakte Vorstellungen wie „Fairness“? Anders gesagt, können „Einsen“ und „Nullen“ so angeordnet werden, dass sie Nicht-Anfassbares darstellen? Ich denke nein.

Daher steht unter dem Strich die Frage: Kann ein Computer-Programm überhaupt alle Möglichkeiten der realen Welt richtig behandeln – bereits schon in diesem einfachen Fall der Schuldeneintreibung? Die Antwort ist Nein.

Wir haben schon beachtliche Schwierigkeiten beim Übersetzen einer relativ einfachen Sache wie der Sprache – z. B. von griechischen biblischen Texten ins Englische. Wie viele Versionen der Bibel gibt es? Warum nicht nur eine?

Können wir möglicherweise hoffen, einen Vorgang zu übersetzen, der viel komplizierter als Wörter ist? Wir können es versuchen, aber die klare Antwort ist, dass beim Übersetzen jeder komplexen Lage (Schuldner, Energie-Leistung usw.) in mathematische Gleichungen und Computer-Code eine ganze Menge verloren geht.

Manche uninformierte Gruppen glauben, dass der Computernutzer alle Variablen beherrscht und dass er von Hand (und mit Genauigkeit) die Lagen ändern kann. Das stimmt nicht, weil die vom Computernutzer beherrschten Elemente nur einen kleinen Bruchteil der tatsächlichen Faktoren ausmachen, die in ein Computer-Modell eingebaut sind.

Ein ähnlicher Fehler ist, etwa so zu denken: „wir kennen die Annahmen, die die Programmierer trafen, und wir berücksichtigen sie“. Das ist falsch.

Beim Schreiben eines Computer-Programms mit Komplexität werden buchstäblich Hunderte von Annahmen getroffen. Der Computer-Programmierer enthüllt seinem Kunden diese nicht alle, aus dem gleichen Grund, aus dem ein Steuerberater seinem Kunden nicht alle Annahmen bei der Erstellung einer Steuererklärung mitteilt. Er erwähnt nur einige Grundannahmen und sagt dann: „Unterschreiben Sie hier“.

Ja, dieses Beispiel bringt mich auf eine weitere Hauptvariable (Nr. 7): auf die Daten, die der Programmierer als Grundlage bei der Programmerstellung benutzt.

So, wie auch die Erstellung einer Steuererklärung auf der Zusammenarbeit zweier Parteien beruht, so ist auch das Schreiben eines Computer-Modells eine Zusammenarbeit zwischen Wissenschaftler und Programmierer. Wenn der Steuerpflichtige dem Steuerberater unvollständige oder unrichtige Angaben macht, wird das Ergebnis falsch. Das Beunruhigende ist, dass in vielen Fällen keine der Parteien erkennt, dass die Ergebnisse falsch sind.

Gleichermaßen wird das Ergebnis falsch sein, wenn ein Wissenschaftler (unabsichtlich) unvollständige oder ungenaue Daten dem Programmierer für dessen Arbeit gibt. Und keine Partei wird es merken.

Es gibt eine noch bedeutendere Variable (Nr. 8) zu berücksichtigen. Nach der Fertigstellung eines Computer-Modells wird ein „Dolmetscher“ (z. B. das IPCC) die „Ergebnisse“ für Politiker und die Öffentlichkeit (z. B. die Medien) übersetzen.

Und da erleben wir eine Überraschung: Diese Übersetzungen werden von politischen, religiösen, umweltbezogenen, finanziellen und wissenschaftlichen Meinungen beeinflusst. Erklären die Dolmetscher in ihren öffentlichen Äußerungen alle ihre unterschwelligen Vorurteile? Man weiß jetzt die Antwort: ganz gewiss nicht.

Wenn alle diese Faktoren in die Gleichungen eingeführt werden, sind wir offensichtlich schon so weit von den wissenschaftlichen Tatsachen abgewichen, dass diese gar nicht mehr sichtbar sind.

Daher müssen wir sehr sorgfältig nachdenken, bevor wir große Aktionen starten, die fast ausschließlich auf Computer-Modellen beruhen (z. B. viele Billionen Dollar ausgeben wegen der Klimaprognosen, für die Nutzung der Windenergie usw.) 

Was ist zu tun? Alle Computer-Modelle einfach müllen?

Nein, da würden wir ins andere Extrem verfallen. Computer-Modelle haben ihre Verdienste – doch der Schwanz sollte nicht mit dem Hund wedeln.

Wir sollten realistischerweise Computer-Modelle als das sehen, was sie sind: Hilfsmittel beim Ordnen unserer Gedanken und Erzeuger von sehr subjektiven Ergebnissen, die am Anfang von wirklich wissenschaftlicher Analyse stehen sollten.

Alle Computer-Modelle sollten mit einem sehr gesunden Grad von Skepsis betrachtet werden wegen ihrer innewohnenden Begrenzungen (die ich hier nur angerissen habe).

Und um die angemessene Integrität zu gewährleisten, sollten alle Computer-Modelle für wichtige Angelegenheiten der strengen wissenschaftlichen Methodologie unterworfen werden.

Wenn sie nicht genau und ständig die Beobachtungen aus der wirklichen Welt reproduzieren können, dann sollten sie verworfen werden.

Unglücklicherweise geschieht das nicht. 

Wir sind derart süchtig nach der Illusion geworden, dass diese Programme stimmen – und einige Leute lassen sich von politischen Zielen antreiben. Und wir passen schon die Beobachtungen aus der wirklichen Welt an oder stellen sie gar in Abrede, wenn sie nicht mit dem Modell übereinstimmen. Das ist verrückt.

Wenn ein Modell nicht an der vollen Abbildung der Wirklichkeit erprobt worden ist, dann hat es nur sehr begrenzten Nutzen und sollte mit dem gleichen Grad von Berücksichtigung bedacht werden, wie man sie vielleicht einem Horoskop zuerkennt.

John Droz, Jr. ist Naturwissenschaftler und Anwalt. 

Den Originalartikel finden Sie hier: 

Die Übersetzung besorgte Helmut Jäger für EIKE