Das Kyoto-Protokoll enthält verbindliche Verpflichtungen für die Reduzierung der menschengemachten CO2-Emissionen durch die Verbrennung von fossilen Brennstoffen. Bisher gab es nur eine begrenzte Anzahl von entwickelten Ländern, darunter EU-Mitgliedstaaten, die sich dazu verpflichtet haben. Aber die von vielen erhoffte (und von anderen befürchtete) weltweite Ausbreitung der Gruppe stieß auf Widerstand von großen CO2-Emittenten wie China und Indien, während Japan und Russland, die sich heute noch an Kyoto beteiligen, erklärt haben, in der Zukunft auszusteigen. Die USA hatten zwar angekündigt, Massnahmen zu treffen, um CO2-Emissionen zu reduzieren, aber nicht im Rahmen einer "internationalen Architektur". Zusätzlich zog Kanada sich zurück. Dies bedeutet, dass die internationalen Verhandlungen über ein Abkommen tot sind.

Die Klimapolitik beruht auf den Erkenntnissen des UN-Klimarats (offiziell: "Intergovernmental Panel on Climate Change“, IPCC) (1), das alle 5 oder 6 Jahre einen umfangreichen Bericht mit einer Erfassung und Bewertung der relevanten Klima-Literatur veröffentlicht. Der Bericht enthält auch Prognosen über den zukünftigen Temperaturverlauf bis 2100. Sie beruhen auf einer Kombination von Erwartungen der wirtschaftlichen Aktivität und der Ergebnisse von Klimamodellen.

Der Einsatz von wirtschaftlichen Szenarien/Modellen bietet eine Reihe von wirtschaftlichen Wachstumsraten. Weil Wirtschaftswachstum und CO2-Emissionen sowie andere Treibhausgas-Emissionen, eng miteinander verbunden sind, bekommt man in dieser Weise Emissionswerte. Diese werden als Eingabe für Klimamodelle verwendet. Man geht davon aus, dass es einen Zusammenhang gibt zwischen CO2 (und anderen Treibhausgasen) und der globalen Erwärmung. Aber das IPCC verwendet nicht nur ein wirtschaftliches Szenario/Modell, sondern viele. Das gleiche gilt für Klimamodelle. Das IPCC verwendet ungefähr zwanzig dieser Modelle, die alle ihre eigenen Eigenschaften haben und daher zu unterschiedlichen Ergebnissen führen. Das Endergebnis ist, dass es nicht einen Wert für die prognostizierte globale Erwärmung gibt, sondern eine Bandbreite von 1,4 – 5,8 Grad Celsius in diesem Jahrhundert.

Obwohl genau genommen nicht unbedingt bewiesen, wird allgemein davon ausgegangen, dass nur bei einem Temperaturanstieg von mehr als 2 Grad Celsius die negativen Auswirkungen der Erwärmung die Oberhand erlangen über die positiven Effekte. Deshalb haben viele Länder das Ziel bestätigt, dass die Erhöhung der Temperatur der Erde in diesem Jahrhundert sich auf 2 Grad Celsius beschränken soll.(2) Aber sie haben sich dabei nicht verpflichtet, die Maßnahmen zu treffen, die dafür nach conventional wisdom erforderlich wären. 

Die Aussagekraft der Klimamodelle

Oft wird der Eindruck erweckt, oder es wird stillschweigend davon ausgegangen, dass die Klimamodelle zuverlässig genug sind, um als Grundlage für die Klimapolitik zu dienen. Aber ohne Prüfung der Werthaltigkeit dieser Modelle, ohne angemessene Berücksichtigung der zugrunde liegenden empirischen Daten und ohne eine gründliche wissenschaftliche Bewertung und Diskussion der Gültigkeit ist es problematisch, diese Ansicht zu verteidigen.

Aber steht die Wissenschaft dann mit leeren Händen da? In der Klimadiskussion werden viele Daten und Erkenntnissen letztlich in Modelle eingegliedert. Das Ergebnis ergibt langfristige Erwartungen über die Höhe des Meeresspiegels, die Durchschnittstemperaturen, CO2-Konzentrationen und so weiter. Die Erkenntnisse sind aber sehr unterschiedlich. Kein Wunder, dass die Erwartungen ebenso unterschiedlich sind. Das ist an sich nicht bedenklich. Das kommt häufig in der Wissenschaft vor. Oft führt das zu tieferen Einsichten und eine bessere theoretische Fundierung.

Aber die politischen und wirtschaftlichen Implikationen der Ergebnisse können tiefgreifend sein. Dies führt zu hitzigen Diskussionen über die Gültigkeit der Modelle. Die Literatur bietet reichlich Belege dafür. Aber die Frage nach der inhärenten Gültigkeit der Modelle (unabhängig davon, ob erhebliche Erwärmung durch menschliche Emissionen von CO2 als Ausgangspunkt gewählt ist oder nicht) bekommt zu wenig Aufmerksamkeit. Oder, mit anderen Worten, ist es überhaupt möglich mit Hilfe von Modellen valide Aussagen über längerfristige Klimawandel zu tun?

Deshalb zunächst ein Überblick über relevante Entwicklungen in der Meteorologie. Anfang der sechziger Jahre wurden die Meteorologen sich bewusst, dass sie an einem Wendepunkt in ihrem Fachbereich standen. Die manuelle Analyse von Wetterkarten und die Verwendung von verschiedenen Tabellen – die synoptische Methode genannt – war zwar effektiv, aber mit dem Erscheinen von Tirus- und Nimbussatellieten standen mehr und vor allem genauere Daten zur Verfügung. Es war der Anbruch einer neuen Ära, die eine viel schärfere Analyse der Wetterkarten ermöglichte. Und nicht nur das! Es schien sogar möglich, eine Wetterprognose für 5 Tage zu stellen. Das war aber ein bisschen tricky, wie sich herausstellte.

In den USA wurde ein Büro für "Extended Forecasting"gegründet, wo ein gewisser O’Connor mit Hilfe von statistischen Modellen dieses Kunststück schaffte.(3) Überall gab es Skepsis und Diskussion in den meteorologischen Kreisen in den Niederlanden. Wäre es überhaupt möglich, langfristige Erwartungen zu stellen auf Grund der Beobachtungstechniken, und welche Methoden und Modelle sollte man dann verwenden? Eine Vorhersage von zwei Tagen war bisher das Maximum, vor allem in der komplexen Wetterlage in den Niederlanden. Mit dem Aufkommen von leistungsfähigen Computern wurden numerische (dynamische) Modelle daher immer attraktiver.

Damals hatte ein Unteroffizier/Meteorologe der Luftwaffe behauptet, dass eine Prognose für sieben Tage möglich sei (es war Hochsommer). Herausgefordert von seinem Major steckte er seine Vorhersage in einem großen Umschlag. Eine Woche später konnte sein Major lesen: "anhaltend Tauwetter“. Eine hier nicht unwichtige Fußnote.

Vielleicht unbeabsichtigt, betraf es hier das Kernproblem bei der Arbeit mit dynamischen Modellen. Das heisst, inwieweit ist es möglich mit einer erwünschten Genauigkeit Aussagen über zukünftige Ereignisse zu machen? Später stellte sich heraus, dass bestimmte Ergebnisse der "chaotischen" Prozesse, die inhärent sind in dynamischen Modellen, innerhalb gewisser Grenzen (das anhaltende sommerliche Tauwetter!) auftreten.

Klimamodelle haben oft viel gemeinsam mit den meteorologischen Modellen. Vor allem geht es um Systeme, die nichtlinear sind und dass die Kalkulationen chronologisch, d. h. eine Periode nach der anderen, stattfinden. Das heisst, dass die berechneten Werte zu einem bestimmten Zeitpunkt wieder als Startwerte für die nächste Periode verwendet werden und so weiter. Darin steckt das Problem der Gültigkeit dieser Art von Modellen: der Flügelschlag eines Schmetterlings in Brasilien kann drei Monate später ein Gewitter in den Niederlanden verursachen. Wie bei der Meteorologie können die ursprünglichen Werte mit Monte Carlo-Methoden (das betrifft die Einführung von Zufallszahlen um einem bestimmten Startwert) manipuliert werden. Ergebnisse sind dann Werte, die mit einer gewissen Wahrscheinlichkeit auftreten können. Aber dann wird eigentlich das Problem verschoben zu den Nutzern der Ergebnisse der Berechnung: politische Entscheidungsträger, die 100% Sicherheit wünschen/brauchen. Aber die Wisschaft kann das nicht liefern.

Die inhärent chaotische Natur der Ergebnisse dieser Modelle ist nicht das einzige Problem. Wie in der Meteorologie spielt die Genauigkeit der Beobachtungen ebenso eine entscheidende Rolle.  Zu diesem Thema gibt es zahlreiche Diskussionen. Und das ist verständlich! Die Modelle sind in der Regel empfindlich für die Anfangswerte. Die Zuverlässigkeit dieser Werte ist eine Voraussetzung für valide Ergebnisse. Es gibt oft Meinungsverschiedenheiten über die Genauigkeit und Definition von Beobachtungen in der Klimaforschung. Das gibt Anlass zur vielen Missverständnissen, die zu unterschiedlichen Schlussfolgerungen führen.

Das dritte Problem liegt in der Gestaltung der Modelle selbst. Es gibt unzählige, je nach Interesse und der Schule, zu der sein Designer gehört. Oft stehen die Modelle im Widerspruch zueinander. Sie haben alle gemeinsam, dass sie kaum überprüft werden können. Kaum, denn man hat auch versucht, die Modelle ex post, so historisch, zu validieren – nützlich vielleicht, aber nicht ohne methodische Fallstricke.

Werden neue Modelle schließlich entscheidend sein für die Debatte und in verschiedenen Bereichen zu einer "Paradigmenwechsel" führen? Das ist nicht unmöglich, aber auch nicht wahrscheinlich, jedenfalls nicht in kurzer Frist.

Stehen die Modellbauer in der Klimaforschung dann mit leeren Händen da? Ja und nein.

Ja, wenn eine zu große Präzision erwartet wird. So ist es beispielsweise grundsätzlich unmöglich, steigende Meeresspiegel mit einer Genauigkeit von Zentimetern vorherzusagen. Diejenigen, die so tun, sollten noch einen weiteren kritischen Blick auf ihren Modelle werfen. Zwar ist das Problem, dass die Öffentlichkeit oft von Wissenschaftlern erwartet, dass sie ihre Aussagen mit großer Genauigkeit machen. Die Gezeiten sind doch auch mit großer Präzision vorherzusagen?

Nein, wenn eine normale wissenschaftliche Debatte über die oben genannten Probleme stattfinden könnte. Die inhärent begrenzte Gültigkeit der Ergebnisse der Modelle ist eine gewaltige Behinderung und sollte Gegenstand ständiger Aufmerksamkeit sein. Die politischen Entscheidungsträger müssen lernen damit umzugehen.

Ein praktischer Ansatz

Die Frage ist, ob dynamische Modelle in der Klimaforschung derzeit möglich sind und, wenn das heute nicht genügend der Fall ist, wie weit es noch möglich ist, mit akzeptabler Genauigkeit Aussagen über das Klima der Zukunft zu machen. In der Meteorologie (kurzfristig) werden dynamische Modelle mit relativem Erfolg angewandt. Die oben genannten Probleme sind in diesem Wissenschaftsbereich hinreichend geklärt. In der Klimaforschung (langfristig) ist das nicht der Fall. Deshalb sollte man zurückgreifen auf geschickte Sub-Modelle, in denen diese Probleme weniger dominant sind.

Dick Thoenes (4) zeigt eine praktische Liste dieser Sub-Modelle oder Prozesse. Nach Ansicht der Autoren bietet sie ein nutzbares Format. Der Überblick zeigt gleichzeitig die Komplexität des Klimaproblems.

1. Sonnenstrahlung und kosmische Strahlung auf die Erde (Land, Wasser, Atmosphäre) und die Ausstrahlung der Erde zum Universum;

2. die Wechselwirkung zwischen Strahlung und der Atmosphäre, inklusive Wolken (Absorption und Emission, einschließlich des Treibhauseffekts),

3. andere Prozesse in der Atmosphäre, wie zum Beispiel verschiedene Arten von Luftströmungen, Wolkenbildung, Niederschlag und Tiefdruckgebieten,

4. Prozesse in den Ozeanen, wie horizontale und vertikale Strömungen, sowohl an der Oberfläche als auch in der Tiefe, besonders wichtig für den Transport von CO2  und andere Prozesse wie Verdunstung, Bildung und Schmelzen von Eis,

5. die Prozesse, die an Land auftreten, wie Verdunstung und Abfluss, Erosion, Bildung und Schmelzen von Landeis sowie Vulkanismus,

6. die Wechselwirkung zwischen der Atmosphäre und den Ozeanen, vor allem in Bezug auf Wärme-, H2O (Wasserdampf) – und CO2-Ströme,

7. die Wechselwirkung zwischen der Atmosphäre und der Landoberfläche, insbesondere im Hinblick auf Wärme- und H2O-Strömungen,

8. die Prozesse in der Biosphäre, vor allem das Wachstum der Pflanzenmasse und die Zersetzung von abgestorbenem Pflanzenmaterial (insbesondere im Hinblick auf CO2-Ströme),

9. die Wechselwirkung zwischen der Biosphäre und der Atmosphäre (insbesondere im Hinblick auf CO2-Ströme),

10. die Interaktion zwischen den Ozeanen und dem Meeresboden, wie unterseeische vulkanische Aktivität (warmes Wasser) und die Fällung von Calciumcarbonat Schalen und Skeletten (insbesondere im Hinblick auf CO2-Ströme).

Hinter der allgemeinen Beschreibung dieser Variablen, die eine Rolle spielen, liegt natürlich eine Vielzahl von versteckten Prozessen, deren Geschwindigkeit variiert je nach Ort auf der Erde, den lokalen Wetterbedingungen und Jahreszeiten. Was wir "Klima" nennen, sind die laufenden Ergebnisse all dieser Prozesse, Wechselwirkungen und Rückkopplungen zwischen ihnen. Viele Prozesse beeinflussen zum Beispiel die Temperatur der Atmosphäre, aber sie selbst sind auch temperaturempfindlich. Fast alle Prozesse sind relevant für das Klima.

Die meisten Prozesse sind unzureichend oder nicht genügend genau bekannt. Auch wenn die Erkenntnisse hinlänglich sind, sind aufgrund der Komplexität modell-basierte Vereinfachungen notwendig, um sie überschaubar zu machen. Die Frage ist immer: Inwieweit können wir die Modelle so gestalten, dass sie ausreichende Gültigkeit beibehalten? Wie soll man mit den Unvollkommenheiten in den Modellen umgehen? In der Praxis sind daher Schätzungen und/oder Annahmen über funktionale Zusammenhänge zwischen verschiedenen Faktoren unvermeidlich. Diese Schätzungen und Annahmen sind um so problematischer, je weniger über die zugrunde liegenden Prozesse bekannt ist.

Angesichts der Bedeutung der Modelle ist es klar, dass sie häufig heftiger Kritik ausgesetzt sind. Die Hauptkritik konzentriert sich auf die Unterschätzung des Einfluss‘ der Sonne, die Vernachlässigung des Einfluss‘ von Meeresströmungen, die Unsicherheit über die Auswirkungen von Aerosolen und die Nichtbeachtung des Verhaltens der Wolken. Jedes Modell wird daher Fehler wegen der unzureichenden Kenntnisse aufweisen. Die Frage ist daher, in wie weit die drei oben genannten grundlegenden Probleme gelöst werden können.

Um den Realitätsgehalt der Modelle zu testen, verwendet man "hindcasting". Dies ist das Spiegelbild von "forecasting". Man ändert die Parameter des Modells so lange, bis man eine gute Übereinstimmung bekommt über die Entwicklung der wichtigsten Merkmalen des Klimas in der Vergangenheit, vor allem hinsichtlich der Temperatur. Auffällig ist, dass diese Methode in vielen Modellen in dieser Hinsicht recht erfolgreich ist, obwohl sie völlig unterschiedliche Eigenschaften haben. Diese Methode zeigt sich als plausibel. Aber die methodischen Fallstricke sind nicht zu vernachlässigen. So ist zum Beispiel die Qualität der historischen empirischen Daten nicht immer adäquat. Aber im Moment müssen wir mit diesen Mängeln leben. Simulationsmethoden sind immer noch unzureichend untersucht.

Ein Problem von entscheidender Bedeutung

Wir haben gezeigt, dass in der Klimawissenschaft die Anwendung von Modellen bei weitem nicht einfach ist, aber dass es von großer Bedeutung ist, um zuverlässige Ansätze zu finden und Antworten zu geben auf die Fragen, die von großem gesellschaftlichem Interesse sind. Ein zentrales Problem dabei ist die sogenannte Klimasensitivität ("climate sensitivity"). Es ist eine Art von Elastizität. Sie ist definiert als der Temperatur-Effekt einer Verdoppelung der CO2-Konzentration in der Atmosphäre. Wenn der heutige Anstieg von CO2 in der Atmosphäre so weiter geht, kann ein solches Niveau am Ende des Jahrhunderts erreicht werden.

Wie bereits erwähnt, behaupten Befürworter der menschlichen Treibhausgas-Hypothese (AGW = "Anthropogenic Global Warming"), dass eine solche Entwicklung zu einem Anstieg der Temperatur zwischen 1,4 und 5,8 Grad Celsius führen kann aufgrund der Absorption und Reflexion der von der Erde ausgehenden (warmen) Infrarot-Strahlung von CO2. Dieser Anstieg besteht aus einem primären Wärme-Effekt von einem Grad Celsius. Weiter sollte es einen sekundären Effekt geben – oder einen zusätzlichen Rückkopplungsseffekt – durch den Einfluss von Wasserdampf, einem wichtigen Treibhausgas.

Die Anhänger der AGW-Hypothese argumentieren, dass höhere Temperaturen zu mehr Verdunstung führen. Damit kommt mehr Wasserdampf in die Luft, der den primären Heiz-Effekt verstärkt. Ihre Opponenten, die sogenannte Klimaskeptiker, vertreten eine andere Auffassung. Sie kommen – anhand verschiedener Methoden – zu dem Schluss, dass die Klimasensitivität wahrscheinlich erheblich niedriger ist:  In der Größenordnung von 0,5 Grad Celsius oder weniger. Ihre Annahmen sind anders: sie sind der Meinung, dass Wasserdampf einen negativen Rückkopplungseffekt verursacht. Sie argumentieren von der klassischen Meteorologie aus, gegenüber der AGW-Hypothese, dass CO2 ein Treibhausgas ist, und dadurch unbedingt erwärmend wirken soll.

Die klassische Meteorologie geht davon aus, dass das Land und die Meeresoberfläche auf zwei verschiedene Weisen die eingefangen Sonneneinstrahlung los werden kann: Infrarot-Strahlung direkt in dem Raum, und Konvektion (thermisch, Wind, Wolken und vor allem tropische Regengüsse), die Wärme in der Atmosphäre transportiert. Sie halten es für erwiesen, dass Klimaschwankungen in der Vergangenheit – kleine Eiszeit, mittelalterliche Warmzeit und all die großen Eiszeiten – überhaupt nicht mit CO2 Variationen, aber mit solar-magnetischer Aktivität verknüpft sind. Im Allgemeinen erkennen sie an, dass CO2 eine gewisse erwärmende Wirkung hat, aber sie halten diese für unbedeutend und nicht messbar im statistischen Rauschen des Temperatursignals. Wenn sie Recht haben, gibt es kein Erwärmungsproblem. Die umweltökonomische Literatur zeigt, dass ein geringer Temperaturanstieg per Saldo sehr vorteilhaft sein wird für Mensch und Natur.

Die grundlegende Meinungsverschiedenheit über das Vorzeichen der Rück-Kopplung (positiv oder negativ) wird derzeit in Gesprächen zwischen Vertretern der "Schulen" diskutiert. In den Niederlande beteiligt sich auch das Königliche Niederländisches Meteorologisch Institut (KNMI) an dieser Diskussion.

Es ist wichtig dass eine solche Diskussion stattfindet, denn beide Schulen begegnen, jeder aus seiner eigenen Sicht, ähnlichen Problemen. Die oben genannte wissenschaftliche Debatte in diesem Bereich kann deshalb Früchte tragen.

Übereinstimmung oder nicht?

Es bleibt von grösster Wichtigkeit, dass die Wissenschaftler durch ein freien und ungehinderten Austausch von sachlichen Argumenten und die Bündelung von zersplitterte wissenschaftlichen Erkenntnisse zum Konsens kommen. Aber die Erfahrung zeigt, dass ein solches Verfahren in der Klimatologie bislang noch kaum begonnen hat. Die Beziehungen sind polarisiert. Kuhn (5) hat übrigens darauf hingewiesen, dass solche Verhältnisse nicht nur in der Klimatologie, sondern auch in vielen anderen wissenschaftlichen Disziplinen vorgekommen.

Auf der Seite der Klimaskeptiker gibt es die Oregon Petition, in deren sich 31.000 Unterzeichner von der AGW-Hypothese distanziert haben. (6) Von AGW-Seite jedoch werden die Qualifikationen mancher dieser Wissenschaftler bestritten. Zusätzlich gab es auch ernsthafte Kritik an der Vorgehensweise, die bei der Erstellung der Petition verfolgt wurde. Diese Beschwerden treffen nicht zu in Bezug auf die Liste hergestellt vom „Climate Depot“. Diese Liste nennt über 1000 klimaskeptische Wissenschaftler, inklusive umfangreicher Auskünfte über die akademischen Qualifikationen und wissenschaftlichen Zugehörigkeiten der Beteiligten.(7)

Anderseits gibt es die viel zitierte Aussage, dass 97% der Wissenschaftler AGW unterschreiben. Diese Zahl stammt aus einer Umfrage/Probe von 79 Klimatologen.(8) Natürlich kann man behaupten, dass es hier um eine sehr beschränkte Probe handelt. Trotzdem bleibt die Tatsache, dass eine relativ große Anzahl von Forschern diese Hypothese anhängt.

Es ist übrigens bedauerlich, dass beide Schulen versuchen, ihr Gewicht durch verschiedene Umfragen zu belegen. Sie zeigen auch, dass man von der notwendigen wissenschaftlichen Debatte noch weit entfernt ist. Sie zeigen weiter, dass grundlegende Fragen nichtwissenschaftlicher Natur noch gelöst werden müssen.

Illustrativ in diesem Zusammenhang ist eine interessante Studie deutscher Herkunft von Hans M. Kepplinger und Svenja Post, veröffentlicht unter dem Titel "Die Klimaforscher Sind Sich Nicht Sicher.“ Sie haben die Ergebnisse ihrer Studie auf Welt Online zusammengefasst.(9).

Der Klimaschutz ist zu einem der wichtigsten Rechtfertigungsgründe von politischen Entscheidungen geworden. Als parteiübergreifende Begründung von Macht- und Gestaltungsansprüchen hat er hierzulande die Funktion übernommen, die Nation und Religion in der Vergangenheit besaßen und in anderen Weltregionen noch besitzen. Der Klimaschutz legitimiert. Er legitimiert staatliche Eingriffe in die Energieversorgung, die Technologieförderung, den Wohnungsbau. Mit dem Klima kann man alles begründen – von Subventionen für Wind- und Solarenergie über Vorschriften für den Bau von Eigenheimen bis hin zur steuerlichen Behandlung von Dienstwagen.

Kepplinger und Post haben 133 deutsche Klimaforscher befragt. Die zweite Frage der Untersuchung betraf die Zuverlässigkeit der Modelle.(10) Nur 14% der Befragten gaben an, dass diese bereits ausreichend zuverlässig sind. 65% dachten, dass sie in der Zukunft hinreichend zuverlässig sein würden. 14% Hielten es aus prinzipiellen Gründen für unmöglich, und 7% gaben keine klare Antwort. Die allgemeine Schlussfolgerung von Kepplinger und Post war wie folgt: 

Anhand ihrer Urteile über die Qualität der Daten und Modelle der Klimaforschung, der Interpretation der Befunde zur Entwicklung des Klimas sowie zu den zukünftigen Gefahren kann man einen Index berechnen, der in der Klimaforschung zwei unterschiedliche Lager ausweist – überzeugte Warner und skeptische Beobachter. Im Unterschied zu ihrer Präsenz in der Öffentlichkeit und zu ihrer Resonanz in der Politik sind beide Lager in der Klimaforschung gleich groß (37 beziehungsweise 36 Prozent der Klimaforscher). Zwischen ihnen steht eine etwas kleinere Gruppe (27 Prozent), die weniger klar umrissene Ansichten vertritt und hier außer Acht bleiben kann.

Nota bene! Dies sind professionelle Klimatologen, die im formalen akademischen Umfeld tätig sind. Der politische Kontext ihrer Arbeit sickert überall durch und bedeutet ein schweres Handicap für eine gründliche Diskussion. Wir sehen in den zitierten Quellen wenig Hoffnung zu einem Konsens in absehbarer Zeit. Dies bedeutet, dass viel Energie in nicht-produktiven Diskussionen verloren gehen wird. Angesichts der Bedeutung der Klimatologie ist das bedauerlich. Aber in Anlehnung an Kuhn trösten wir uns mit der Hoffnung, dass es letztendlich klappen wird.

Zum Schluss

In Bezug auf Klima wird oft gesagt: "The science is settled – all scientists agree,“ oder Wörter mit ähnlicher Bedeutung.(11) Wie wir gezeigt haben, ist das nicht korrekt. Im Gegensatz zu dem, was oft behauptet wird, bieten Klimamodelle jetzt (noch?) keine zuverlässige Grundlage für Vorhersagen über künftige Klimaänderungen. Das IPCC erkennt das implizit. Es verwendet daher konsequent die korrekte Bezeichnung "Projektionen" – eine bessere Formulierung für Ergebnisse, die von vielen Unsicherheiten umgeben sind. Im Hinsicht auf diesen Unsicherheiten ist der Begriff “Vorhersagen“ also falsch. Aber in der Kommunikation mit dem Publikum geht diese subtile Unterscheidung oft verloren. Infolgedessen setzen die Politik, die Medien und die Öffentlichkeit auf das falsche Pferd. Was bleibt ist, dass Politiker lernen müssen mit Ergebnissen umzugehen, die ein hohes Maß an Unsicherheit haben.

Heute scheint die Aufregung über die angebliche globale Erwärmung nachzulassen. Und renommierte Astrophysiker, einschließlich des niederländischen Kees de Jager, erwarten sogar eine neue kleine Eiszeit (im Jargon: Maunder Minimum). Das bedeutet, dass es Zeit und Gelegenheit gibt für ein Umdenken über Richtung und Grenzen der Klimaforschung, insbesondere die Grenzen der Aussagekraft von Klimamodellen. Werden sie jemals zuverlässig genug sein, um vertrauenswürdige Prognose zu liefern? Oder werden sie, wie ökonomische Modelle, niemals dazu in der Lage sein?

Die Zeit wird es zeigen.

Autoren: Prof. Dr. Theo deVries, Dr. Oec. Hans Labohm für EIKE. Der Originalartikel erschien hier. Die Übersetzung besorgte Hans Labohm

Theo de Vries ist Mathematiker. Derzeit ist er Professor für Zukunftsstudien Gesundheitswesen an der Universität Twente. Sein zweites Interessengebiet ist die Anwendung von mathematischen Modellen für soziale Fragen. Er ist ehemaliger Vorsitzender des Ausschusses Wissenschaft und Technik der VVD, Mitglied des Kuratoriums der Telders Stiftung und Mitglied der Redaktion von Liberaal Reveil. 

Hans Labohm ist derzeit unabhängiger Ökonom und Publizist. Von 1987 bis 1992 war er stellvertretende Ständiger Vertreter der Niederlande bei der OECD (Paris) und nachher Berater der Verwaltung des Niederländischen Instituts für Internationale Beziehungen (‚Clingendael‘). Auch war er Expertengutachter für den Zwischenstaatlichen Ausschuss für Klimaänderungen (IPCC) der Vereinten Nationen. Zusammen mit Dick Thoenes und Simon Rozendaal hat er das Buch ‚Man-Made Global Warming: Unravelling a Dogma‘ (Multi-Science Publishing Co. Ltd. April 2004, 200 S., 51,50 Euro) veröffentlicht. Er ist Mitglied des wissenschaftlichen Beirats von EIKE.

Liberaal Reveil ist eine Ausgabe der Telders Stiftung. Die Telders Stiftung ist die wissenschaftliche Ideen-schmiede der Niederländischen VVD (Volkspartei für Freiheit und Demokratie – also die klassischen Liberalen). Sie ist zu vergleichen mit der Friedrich Naumann Stiftung in Deutschland. Die neueste Ausgabe des Liberaal Reveils war das Thema der Vorhersagen gewidmet. Das unterstehende Artikel von Theo de Vries und Hans Labohm wurde in dieser Sonderausgabe veröffentlicht.

Fußnoten

(1) Das IPCC wurde vor kurzem stark kritisiert, weil es das nicht auf ausgewogener und objektiver Art und Weise getan hätte. Siehe insbesondere den Bericht des „Inter Academy Council“: „Climate Change Assessments.  Review of the Processes and Procedures of the IPCC.“

http://reviewipcc.interacademycouncil.net/report.html

(2) Im letzten Kommuniqué des G8-Gipfels in Deauville war zum Beispiel wieder zu lesen:

„49. Tackling climate change is a global priority. We, members of the G8, have undertaken ambitious measures, and are committed to long-term efforts, with a view to doing our part to limit effectively the increase in global temperatures below 2 degrees Celsius above pre-industrial levels, consistent with science. We express our determination to act as part of a larger global effort to address this threat as well as our solidarity with developing countries, particularly the poorest and most vulnerable.“

(3) KNMI, Bericht des „International Meteorological Satellite Workshop“, 1961. 

(4) Prof. Dr. Dick Thoenes, ‚Over de onvoorspelbaarheid van het klimaat‘. Geografie, februari 2007.

(5) Thomas S. Kuhn, „The Structure of Scientific Revolutions“, UoC 1996.

(6) Petition Project, http://www.oism.org/pproject/

(7) Climate Depot Special Report, „More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims“, http://hw.libsyn.com/p/b/f/6/bf663fd2376ffeca/2010_Senate_Minority_Report.pdf?sid=68b5e7d9e3a454a4675c254d6348a1c3&l_sid=27695&l_eid=&l_mid=2336201

(8) Dennis Ambler, „Climate ‚Consensus‘ Opiate. The 97% Solution“, http://scienceandpublicpolicy.org/originals/climate_qconsensusq_opiate_the_97_solution.html

(9) Hans M. Kepplinger, Senja Post, „Die Klimaforscher sind sich längst nicht sicher“, Weltonline, 25.09.2007, http://www.welt.de/welt_print/article1210902/Die_Klimaforscher_sind_sich_laengst_nicht_sicher.html

(10) http://www.kepplinger.de/files/Die_Klimaforscher_sind_sich_laengst_nicht_sicher_0.pdf

(11) Siehe zum Beispiel: http://en.wikipedia.org/wiki/User:Sbandrews/the_science_is_settled

     

Related Files

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken