Bild 1 (rechts). Bei Auseinandersetzungen mit „Skeptikern“ und „Leugnern“ ist ein Unfehlbarkeitsanspruch ausgesprochen praktisch (Bild: Wikimedia Creative Commons)
Obwohl der Begriff „Mathematik“ nicht allgemeingültig definiert ist, wird sie häufig als Mutter aller Wissenschaften wahrgenommen. Da mathematische Sätze als prinzipiell endgültige und allgemeingültige Wahrheiten angesehen werden, gilt Mathematik als die exakte Wissenschaft schlechthin. Kant prägte hierzu den Satz: „Ich behaupte aber, dass in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist“ [WIMA].
Gerade aufgrund ihres Exaktheitsanspruchs und weil viele Gebiete der modernen Mathematik selbst Wissenschaftlern anderer Disziplinen oft nur in Umrissen bekannt sind, eignet sie sich jedoch auch hervorragend als Instrument für den Betrug – sowohl an sich selbst als auch an anderen. Hoch auf dem unangreifbaren Podest absoluter Exaktheit und endgültiger Wahrheit stehend, hat derjenige, der über die besseren Mathematikkenntnisse verfügt, einen echten Machtvorteil gegenüber seinen Mitmenschen. Hiervor warnt beispielsweise auch der Hamburger Mathematikprofessor Claus Peter Ortlieb: Zahlen, so seine Erkenntnis, „sind extrem mächtig, moderne Menschen sind zahlengläubig und über Zahlen sehr leicht manipulierbar. Zahlen verkörpern schlichte Objektivität, sie verselbstständigen sich leicht und werden dadurch schnell zum Fetisch“ [ORTL].
Da Wissenschaftler eben auch nur Menschen sind, wird dies leider nur allzu häufig genutzt, um unlautere Ziele zu verfolgen. Besonders verbreitet ist dies zurzeit im Bereich der sogenannten Klimaforschung. Ebenso verbreitet wie der direkte Betrug ist allerdings auch der Selbstbetrug, denn auf praktisch allen Gebieten des realen Lebens, die sich der Mathematik bedienen, ist die beanspruchte Exaktheit nur ein Mythos. Die Folge ist, dass selbst Wissenschaftler allzu leicht an das glauben, was ein Messgerät für sie gemessen und ein Computer für sie ausgerechnet hat, und sich über Möglichkeiten und Grenzen ihrer Daten- und Zahlenwerke oft viel zu wenig Gedanken machen.
 
Bild 2. Mathematik, Teilgebiet analytische Geometrie. Grafische Darstellung wichtiger geometrischer Beziehungen an einer Ellipse (Grafik: H. Sieber [SIEB])

Mathematik und die Grenzen der Exaktheit

Der erste Selbstbetrug, dem auch viele Menschen mit naturwissenschaftlicher Ausbildung anheimfallen, ist die Vorstellung, dass mathematische Berechnungen per se exakt seien. Dabei trifft dies schon bei ganz einfachen Kalkulationen mithilfe der vier Grundrechenarten nicht immer zu. Schon der Bruch 1/3 hat in der Dezimalschreibweise unendlich viele Nachkommastellen. In der Praxis kann daher der Versuch, 1/3 und 1/7 zu addieren und das Ergebnis als Real- Zahl darzustellen, zu keinem wirklich exakten Ergebnis führen. Real-Zahlen sind in Computersprachen Fließkommazahlen in Dezimalschreibweise. Auch das Periodenzeichen ist nur eine Hilfskrücke, mit der man sich über diese Tatsache hinwegtröstet. Zwar wird ein echter Mathematiker angesichts derartiger Herausforderungen erst richtig zur Hochform auflaufen, wie das Beispiel der Kreiszahl Pi zeigt. Einerseits versuchten sich über die Jahrtausende hinweg zahllose Menschen – vom Mathematiker über den genialen Amateur bis hin zum Dilettanten – an der sogenannten Quadratur des Kreises, d.h. an einem Verfahren, Kreis und Quadrat irgenwie mithilfe von Zirkel und Lineal ineinander zu überführen. Andererseits gab es einen regelrechten Wettlauf zur Ermittlung derZahl Pi mit möglichst grosser Genauigkeit. Dank moderner Computer hat man hierbei inzwischen schon mehr als 10 Billionen Stellen hinter dem Komma erzielt.
Im Alltag aber wird man aus praktischen Erwägungen einen Punkt definieren, ab dem das Ergebnis als „ausreichend exakt“ akzeptiert wird. Solche Entscheidungen sind jedoch nicht mathematisch begründbar, sondern schlicht und ergreifend nur eins: Willkürlich.

Bild 3. Die möglichst genaue Berechnung der Zahl pi war für Mathematiker schon immer eine besondere Herausforderung. Inzwischen wurde sie bereits auf mehr als 10 Billionen Stellen berechnet

Mathematik als Werkzeug

Mit diesem Sündenfall hat man bereits das Gebiet der „exakten“ Mathematik verlassen und schaltet somit den ganz normalen (wenn auch oft verpönten und nicht immer zuverlässigen) gesunden Menschenverstand hinzu, der Mathematik als Werkzeug zur Lösung praktischer Probleme betrachtet. Dabei spielt es keine Rolle, ob es um einen simplen Dreisatz oder eine quantenphysikalische Aufgabenstellung in der Elementarteilchenphysik geht. Wer Alltagsprobleme mit Hilfe der Mathematik angeht, muss sich vom Ideal der Exaktheit verabschieden, muss für sich entscheiden, wie viel Aufwand er für welchen Grad an Genauigkeit der Ergebnisse seiner Berechnungen zu treiben bereit ist. In diesem Zusammenhang spielt es absolut keine Rolle, ob man einen groben Anhaltswert für eine Investitionsentscheidung oder eine hoch exakte Berechnung für die Umlaufbahn eines GPS-Satelliten benötigt. Die zu treffende Entscheidung ist in jedem Falle subjektiv und deshalb auch lediglich unter subjektiven Aspekten zu beurteilen. Bei solchen Beurteilungen kann man durchaus unterschiedlicher Meinung sein, doch sollte man den Vorwurf unzureichender Exaktheit nicht verwenden, weil er schlicht immer zutrifft. Mit diesem Argument könnte man glatt sogar einen Einstein als dummen Jungen hinstellen. Die einzig zulässige Diskussion kann daher nur darum geführt werden, welchen Grad an Nicht-Exaktheit man aus welchen Gründen für erforderlich bzw. vertretbar hält.

Bild 4. Grafische Darstellung einer iterativen Annäherung an den Schnittpunkt zweier Funktionen (Quelle: [SCHN])

Computer und Rechengenauigkeit

So gut wie niemand rechnet heute noch selber, man vertraut den allgegenwärtigen Taschenrechnern und Computern. Was dort herauskommt, wird so gut wie nie angezweifelt. Dabei machen sich die wenigsten Menschen klar, dass diese Systeme ungenau rechnen. Das fängt schon damit an, dass die gängigen Computer in der Regel kein Dezimalsystem verwenden, sondern intern mit einem binären Code in Exponentialdarstellung arbeiten. Um eine Dezimalzahl zu verarbeiten, wird diese zunächst in eine binäre Gleitkommazahl mit Mantisse und Exponent umgewandelt, während das Ergebnis dann wiederum zurück ins Dezimalsystem transformiert wird. Dabei geht zwangsläufig Genauigkeit verloren. Da die Länge der Mantisse begrenzt ist, sind den Ansprüchen an die Genauigkeit deutlich engere Grenzen gesetzt, als es sich der Computerlaie normalerweise vorstellt. Zudem gelten hier die Gesetze der Fehlerfortpflanzung. Vor allem bei iterativen Schleifen kommt man dann recht bald an Grenzen.

Vereinfachung statt Verkomplizierung

In vielen Bereichen der Mathematik beschäftigt man sich damit, den für die Lösung einer Aufgabe zu treibenden Aufwand zu minimieren. Dabei strebt man beispielsweise danach, Gleichungen zu vereinfachen oder den erforderlichen Rechenaufwand zu optimieren. Diese Kunst ist auch eher den Schweiβ des Edlen wert als das Gegenteil: Die Möglichkeiten, selbst einfachste Gleichung wie 1 +1 = 2 zu verkomplizieren, sind schlieβlich unendlich.
Aus den gleichen Gründen hat die Mathematik auch mit viel Kreativität Näherungsverfahren für die zahlreichen Bereiche entwickelt, in denen exakte Lösungen entweder nicht zu finden waren oder einen als nicht akzeptabel eingeschätzten Aufwand verursacht hätten. Mit dem Begriff „Näherungslösung“ wird hierbei prinzipiell anerkannt, dass darauf verzichtet wird, ein mathematisch exaktes Resultat zu fordern. Dies gilt beispielsweise für weite Gebiete der Mathematik wie die Statistik oder die polynomische Approximation, wo man von vornherein akzeptiert, dass man sich dem exakten Ergebnis nur annähert. Deshalb gibt es dort auch eigene Parameter wie das Bestimmtheitsmaβ, mit deren Hilfe beurteilt werden kann, wie nah man mit der gefundenen Lösung an die Tatsachen herangekommen ist.
Zugleich liefert dies auch die Rechtfertigung für die Vorgehensweise, bei der Berechnung realer Vorgänge z.B. in Wirtschaft und Gesellschaft – wo die verwendeten Zahlen oft sowieso mit erheblichen Unsicherheiten behaftet sind – zunächst mit vereinfachten Ansätzen zu operieren, um eine Vorstellung von den Dimensionen und Gröβenordnungen der Aufgabenstellung zu erhalten. Eine genauere Berechnung wird oft erst dann durchgeführt, wenn die Abschätzungen den Aufwand als gerechtfertigt erscheinen lassen.

Bild 5. Eine jedem Schüler gut bekannte Aufgabenstellung: Vereinfachung von Brüchen durch Kürzen

Die Messung physikalischer Werte

Ein groβes Problem der in naturwissenschaftlichen Disziplinen angewandten Mathematik ist das oft mangelnde Verständnis der Grenzen der Messgenauigkeit. Aus Sicht des Mathematikers ist es beispielsweise wenig sinnvoll, mit acht- oder gar 15stelliger Genauigkeit zu rechnen, wenn die Eingangsgröβe selbst nur mit zwei- oder dreistelliger Genauigkeit erfasst wurde, wie dies beispielsweise bei Temperatur- oder Luftfeuchtemessungen der Fall ist. Hinzu kommen dann noch Messfehler, Driftvorgänge der Sensorik etc. Selbst bei Präzisionsmechaniken liegt die Genauigkeit, mit der Abmessungen erfasst werden, meist nur bei 4 oder 5 Stellen.
Eine wichtige Einschränkung bei der Messung vieler Gröβen wie Temperatur oder Luftfeuchtigkeit ist zudem die Tatsache, dass hier vielfach punktuell Einzelwerte erfasst werden, obwohl es sich eigentlich um komplexe, dreidimensional wie auch zeitlich veränderliche Feldgröβen handelt. Um sich eine Vorstellung von den damit verknüpften Problemen zu machen, kann man einmal alle Thermometer im Haushalt zusammentragen und diese in einem Zimmer verteilen, um dann zu versuchen, die mittlere Temperatur zu bestimmen. Selbst bei geschlossenen Fenstern und Türen sowie bei Vermeidung von direkter Sonneneinstrahlung merkt man schnell, dass nicht nur die einzelnen Thermometer teils deutliche Abweichungen aufweisen, auch die Temperatur im Raum verändert sich unaufhörlich. Dabei kann es auch zu lokalen Verschiebungen kommen, erkennbar an einer Zu- oder Abnahme der Differenzen zwischen einzelnen Messpunkten. Die Angabe einer auch nur auf zwei Stellen genauen mittleren Tagestemperatur erfordert einen erstaunlichen messtechnischen und auch rechnerischen Aufwand. Wenn man sich dann vergegenwärtigt, wie variabel sich die entsprechenden Gröβen in freier Natur darstellen, so bekommt man eine gewisse Vorstellung davon, wie schwierig die Aufgabe beispielsweise der Meteorologen des Deutschen Wetterdienstes ist, aus den Daten von wenigen 100 Messstationen in ganz Deutschland, die teils nur zu bestimmten Zeiten abgerufen werden, repräsentative Aussagen zu erzeugen [WIWD, THUE, GRAY, QUIR].

Bild 6. Sammelsurium von im Haushalt verwendeten ungeeichten Thermometern geringer Genauigkeit. Aber auch manche meteorologische Messverfahren wie die Bestimmung des flüssigen Niederschlags haben Fehler von bis zu 30%, wobei sich fast alle möglichen Meßfehler in Richtung einer negativen Abweichung vom „wahren Messwert“ auswirken 1) [WIME]

Statistik

Stochastik ist der Oberbegriff der beiden Bereiche Wahrscheinlichkeitstheorie und Statistik. Die Wahrscheinlichkeitstheorie befasst sich mit Zufallsereignissen und der Analyse von Wahrscheinlichkeiten, während Statistiker sich mit dem Sammeln, der Analyse und der Interpretation von Daten beschäftigen. Dies ist für den Umgang mit Messdaten unabdingbar, da reale Messungen stets streuen. Mit Hilfe statistischer Methoden wird daher versucht, die ermittelten Werte zu beurteilen, um zufällige Streuungen von Ausreiβern zu trennen und eventuelle systematische Fehler wie die Drift von Sensoren zu erkennen. Eine gut durchgeführte statistische Analyse von Messwerten ist für die korrekte Interpretation von Messdaten eine unschätzbare Hilfe.
Leider wird jedoch auch häufig versucht, mit Hilfe der Statistik Mängel bei der Ermittlung von Messdaten in unzulässiger Weise zu „korrigieren“ [ESCH]. Das Ergebnis ist Selbstbetrug: Wenn die zugrundeliegenden Werte nicht mit bestmöglicher Genauigkeit ermittelt wurden, ist auch die Mathematik oft damit überfordert, diese Erbsünde des Datenbestandes auszugleichen. Leider wird dies dennoch immer wieder versucht, beispielsweise bei der Interpretation von historischen Daten von Wetterstationen, die bereits seit langen Zeiträumen betrieben werden. Eines der dabei auftretenden Probleme ist der sogenannte Wärmeinseleffekt. Er tritt auf, wenn eine Station, die beispielsweise 1850 noch in freier Natur stand, heute von Beton und Bebauung umgeben ist, wodurch das gesamte Temperaturumfeld systematisch verändert wird [EIWI, WAUH]. Dadurch sind die Daten früherer Messungen nicht mehr mit heutigen Aufzeichnungen vergleichbar. Dennoch wird häufig versucht, dies durch Korrekturfunktionen zu ermöglichen, die oft selbst für Fachleute kaum nachvollziehbar sind. Die Zulässigkeit solcher Vorgehensweisen ist dementsprechend umstritten [WIME, WIMA].

Bild 7. Von Beton und Flugzeug-Abgasstrahlen beeinflusste Wetterstation am Flughafen in Rom (Bild: [EIWI])

Missbrauch des Grundrauschens

Im Zusammenhang mit der Messung physikalischer Werte ist man heute derart an Digitalanzeigen gewöhnt, dass man sich kaum noch Gedanken darüber macht, dass diese nicht die Realität darstellen oder wo ihre Grenzen sind. Zunächst einmal basieren Messwerte in aller Regel nicht auf der zu messenden Gröβe selbst, sondern auf der Interpretation eines analogen elektrischen Signals, das von einem geeigneten Sensor erzeugt wird. Schon bei der Erzeugung wie auch bei der Verarbeitung dieses Signals können Verfälschungen auftreten, welche zu fehlerhaften Werten führen. Weitgehend unbekannt ist vielfach auch, dass analoge elektrische Signale stets ein sogenanntes Rauschen aufweisen. Dieses wird von einer Reihe physikalischer oder quantenphysikalischer Effekte hervorgerufen und führt dazu, dass das eigentliche Messsignal umso schwerer zu bestimmen ist, je weniger es sich vom Grundrauschen abhebt. Mit abnehmender Amplitude des Nutzsignals wächst der entsprechende Fehler an, bis die Werte nicht mehr als signifikant angesehen werden können. Messwerte im unteren Grenzbereich der Instrumentenempfindlichkeit weisen daher teils recht hohe prozentuale Unsicherheiten auf.
Ein solches Grundrauschen gibt es übrigens auch im Bereich der Radioaktivität, da in der Natur überall ein gewisser Mindest-Strahlungspegel herrscht. Strahlungsbelastungen, die unterhalb dieses Hintergrundwerts liegen, lassen sich daher nicht mehr von derjenigen natürlicher Quellen unterscheiden. Deshalb messen ihnen die meisten Radiologen keine Bedeutung zu. Zudem wissen sie, dass die Biologie entsprechende Anpassungen entwickelt hat: Lebende Zellen verfügen über Reparaturmechanismen, um entsprechende Schäden zu beheben.
Im Gegensatz zu diesen Erkenntnissen gibt es auch die Auffassung, dass grundsätzlich jedes Strahlungsquant schädlich sei. Anhänger dieser These rechnen Schädigungspotenziale, die bei hohen Strahlungsdosen ermittelt wurden, selbst für solche Expositionen herunter, die längst weit unterhalb des natürlichen Strahlungspegels liegen. Dieser sogenannte Linear No Threshhold (LNT)-Ansatz ist insbesondere bei Vertretern von Greenpeace und ähnlichen Organisationen sehr beliebt, weil er sich hervorragend zur Angsterzeugung eignet.
Mit dem LNT-Ansatz lieβe sich jedoch beispielsweise auch ausrechnen, wieviele Menschen jährlich durch diejenige Radioaktivität an Krebs erkranken, die in Windenergieanlagen, Solarpaneelen oder auch in Babynahrung steckt. Umfassende wissenschaftliche Untersuchungen haben die LNT-These widerlegt [RADI]. Dass man sie selbst seitens Greenpeace und Konsorten nicht so recht ernst nimmt, kann man auch daran erkennen, dass trotz der von den Medien in der Bevölkerung geschürten Strahlenangst noch immer Kureinrichtungen existieren, die Bäder- oder Luftkuren mit radioaktivem Radon anbieten. Würde die LNT-These wirklich zutreffen, dann hätte Greenpeace längst zu flammenden Protesten vor den Toren dieser Heilanstalten aufrufen müssen.

Bild 8. Das sogenannte Rauschen analoger elektrischer Signale wird durch physikalische Effekte hervorgerufen. Einmalige Signale, die kleiner sind als der Rauschpegel, sind in der Regel nicht signifikant (Grafik: Bautsch, Wikimedia Commons)

Das Tricksen mit Zeiträumen

Zu den bei Klimamodellierungen häufig angewandten Tricks gehört es, Betrachtungszeiträume so zu wählen, dass sich der gewünschte Effekt quasi „von selbst“ ergibt. Wie das funktioniert, lässt sich am Beispiel eines periodischen Signals wie z.B. einer Sinuskurve demonstrieren. Während der Sinus bei entsprechend langzeitiger Betrachtung keine Steigung aufweist, kann man durch geeignete Verkürzung wahlweise einen stark ansteigenden oder stark fallenden Scheineffekt erzeugen.

Bild 9. Die Sinusfunktion (oben) hat im Prinzip die Steigung Null. Betrachtet man jedoch Zeiträume, die kürzer sind als eine Periode, so kann man je nach Wahl der Anfangs- und Endzeitpunkte aufwärts oder abwärts zunehmende Steigungen „beweisen“ (Grafik: Viscount Monckton [EIMO])
Die Klimawissenschaft ist sich über den Zeitraum, ab dem man von „Klima“ statt von Wetter spricht, nicht einig. Die World Meteorological Organisation (WMO) beispielsweise definiert ihn auf 30 Jahre. Solche Definitionen sind nicht unbedingt „falsch“, jedoch letztlich immer willkürlich. Man könnte auch einen anderen, eher längeren Zeitraum wählen. Hinzu kommt: Die Charakterisierung erfolgt nicht durch einen einzelnen Wert, sondern durch eine Gemengelage von Mittelwerten einzelner Wetter-Elemente wie Temperatur, Druck, Feuchte, Wind etc. Klima ist deshalb (wie übrigens auch Wetter) immer ein subjektiver Summen-Akkord vieler solcher Elemente. Anders ausgedrückt: Es kann kälter, windiger und trockener werden, aber auch wärmer, windiger und feuchter etc.
In Wahrheit unterliegen klimatische Entwicklungen einer ganzen Reihe unregelmäβig schwankender Einflüsse, deren Zykluszeiten wie beim El Ninjo/ La Ninja –Effekt wenige Jahre oder, wie bei den letzten Eiszeiten, auch 100.000 und mehr Jahre betragen kann. Leider gibt es bezüglich der Zeitdauer dieser Schwankungen keine klaren, naturgesetzlich oder mathematisch beschreibbaren Regelmäβigkeiten, die man für die Ableitung von Vorhersagen nutzen könnte. 

Bild 10. In den letzten rd. 20.000 Jahren ist der Meeresspiegel ohne menschliches Zutun um etwa 120 m (ca. 0,6 m pro Jahrhundert) angestiegen (Grafik: Robert A. Rohde, Wikipedia [ROHD])
So weisen Geowissenschaftler darauf hin, dass wir in den letzten ca. 2,5 Mio. Jahren eine recht ausgeprägte Zyklizität von Eis- und Warmzeiten hatten. Wer dies nicht berücksichtigt, obwohl die Tatsachen bestens dokumentiert sind, riskiert den Vorwurf, die Grundregeln wissenschaftlich korrekten Vorgehens zu missachten. Besonders beliebt sind beispielsweise Darstellungen des Meeresspiegelanstiegs, bei denen die Vorgeschichte an passender Stelle abgeschnitten wurde. Wenn man die rund 120 m, um die das Meer seit ca. 20.000 Jahren angestiegen ist, einfach ignoriert, dann kann man natürlich die aktuellen 0,2 m pro Jahrhundert als Katastrophenmeldung an den Mann bringen.

Bild 11. Betrachtet man lediglich die letzten ca. 150 Jahre, dann wirken schon Änderungen von + 25 cm Meeresspiegel bedrohlich (Grafik: El Grafo, Wikimedia commons)

Bild 12. Den Meteorologen stehen für ihre Arbeit heute auch Messdaten aus zahlreichen Satelliten zur Verfügung (Bild: NOAA)

(Klima)-Simulationen – und ihre Grenzen

Was ist eigentlich eine Computersimulation? Simulation ist der Versuch, die Realität durch – meist sehr aufwendige – mathematische Modelle in einem Computer nachzubilden. Dabei kommt es darauf an, ob das mathematische Modell die Realität auch ausreichend korrekt beschreibt, ob die Eingangswerte stimmen und ob der Rechenweg im Computer – wo meist zahlreiche iterative Schleifen durchlaufen werden – keine allzu groβen Fehler generiert. Die Ergebnisse sind selbst bei vergleichsweise einfachen Modellen oft ernüchternd. Würde Mark Twain heute leben, käme er wahrscheinlich zu dem Schluss, dass Simulation ein besonders aufwendiges Verfahren ist, um mit Hilfe eines Hochleistungscomputers schöne bunte Bildchen zu erzeugen.
Die eigentliche Herausforderung besteht darin, bei den Ergebnissen zwischen Science und Fiction zu unterscheiden, d. h. nachzuweisen, dass diese bunten Bildchen tatsächlich der Realität entsprechen. Fachleute für Simulationsberechnungen aus der industriellen Praxis, deren Ergebnisse unmittelbar mit den betrieblichen Realitäten verglichen werden können, sind bezüglich der Belastbarkeit ihrer Prognosen meist deutlich vorsichtiger als viele Klimawissenschaftler. Von solchen Industrieanwendern ist in aller Regel zu erfahren, dass exakte Voraussagen selbst bei vergleichsweise einfach strukturierten Aufgabenstellungen mit wenigen Parametern – beispielsweise Verbrennungsvorgänge in Brennkammern von Groβdieseln oder das Gieβen von Stahl in eine Kokille – nur recht begrenzt möglich sind. Bei solchen Aufgabenstellungen sind Simulationen oft hilfreich, aber nicht exakt. Sie helfen zwar dabei, Tendenzen abzuschätzen und den Versuchsaufwand zu reduzieren, Gewissheit bekommt man jedoch nur, wenn man reale Teile unter praxisüblichen Bedingungen testet. Auch Meteorologen geben zu Protokoll, dass die Genauigkeit ihrer Wettervorhersagen selbst für kurze Zeiträume bei lediglich etwa 80 bis 90 % liegt. Das muss mit der Tatsache verglichen werden, dass ein erfahrener Laie lokal auch ohne Messungen (nur mit Wind und Wolken) 70-80 % erreichen kann, während selbst die einfachst mögliche Prognose – „heute so wie gestern“ – immerhin zu etwa 65 % zutrifft [WIWD, WIME]. Vorhersagen für Zeiträume von mehr als 2-3 Tagen sind bereits mit groβen Unsicherheiten behaftet.
Bei Autoren von Simulationen, die behaupten, das Klimageschehen über Jahrzehnte oder gar Jahrhunderte vorausberechnen zu können, ist dagegen Skepsis angesagt [THUE, GRAY, ORTL]. Man mag zwar die Kunstfertigkeit bewundern, mit der dort komplizierte Gleichungssysteme mit sehr vielen sich gegenseitig beeinflussenden Einfluβgröβen zu extrem aufwendigen Programmen verknüpft werden – aber der Beweis, dass die ermittelten Ergebnisse tatsächlich der Realität entsprechen, muss noch erbracht werden. Wetterdienste, die sich auf das Abenteuer eingelassen haben, mittelfristige Vorhersagen beispielsweise für einige Monate bis zu einem Jahr zu machen, sind damit vollkommen und ohne Ausnahme auf die Nase gefallen, so die Briten mit ihrer Vorhersage milder Winter oder die Neuseeländer mit ihrer Unfähigkeit, eine starke Dürreperiode zu prognostizieren [GRAY]. Sicherlich nicht ohne Hintergedanken werden deshalb die Vorhersagezeiträume oft so groβzügig zugeschnitten, dass eine Verifizierung nur noch posthum erfolgen könnte. Eine erfreulich klare Aussage hierzu lieferte Prof. Hans von Storch vom GKSS-Forschungszentrum in Hamburg: Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen.“ [STOR]

Cui bono – die Kriminalfrage

Als letzte Frage ist hier noch zu klären, warum so viele und oft hochqualifizierte Menschen die Wissenschaft in solchem Umfang missbräuchlich anwenden. Darauf gibt es eine einfache Antwort, die zum Grundrepertoire jeder Kriminalistenausbildung gehört: Frage dich, wem es nützt (cui bono). Man muss sich die Tatsache vor Augen halten, dass die sogenannten Klimawissenschaften die ideologische Rechtfertigung für einen Billionen-Euro-Wirtschaftszweig liefern, der inzwischen vermutlich deutlich höhere Profite erzeugt wie beispielsweise die vielgescholtene konventionelle Stromerzeugung aus Kohle und Kernkraft. Besonderes Merkmal dieser neuen Branchen ist, dass sie nahezu ausschlieβlich davon leben, Energie viel teurer als nötig herzustellen, weil die Politik dies fördert und mit Geldern der Allgemeinheit bezahlt. Um die erforderliche ideologische Unterstützung aufrechtzuerhalten, wurde ein riesiger PR-Apparat aufgebaut, der mit vielen Millionen geschmiert wird. Und während Menschen, die sich aufgrund ihrer Fachkunde gegen diese Politik der Irreführung und Verschwendung auflehnen, in der Öffentlichkeit ständig als bezahlte Mietlinge der Kernkraft- und Fossilindustrie angeprangert werden, betreiben auf der anderen Seite PR-Agenturen, die den sogenannten EE-Industrien nahestehen, ganz kommerziell Verleumdungswebseiten wie Desmogblog, in denen der Rufmord an „Skeptikern“ und „Leugnern“ mit hoher Professionalität vollzogen wird.
Was Wissenschaftler und Hochschulprofessoren angeht, so sind diese schlicht auf Gelder angewiesen, die von der Politik dorthin gelenkt werden, wo die höchsten Prioritäten vermutet werden. Und dazu gehört schon seit Jahren alles, was irgendwie mit Etiketten wie „erneuerbar“, „klimafreundlich“, „CO2-Vermeidung“ usw. beklebt werden kann. Kein Wunder also, wenn man auch von dieser Seite fleiβig dazu beiträgt, diese Gans, die goldene Eier legt, durch „Gefälligkeitswissenschaft“ weiter am Leben zu erhalten. Wes Brot ich ess, des Lied ich sing – auch mit Hilfe der Mathematik.
Fred F. Mueller
 
Bild 13. In der Industrie werden Computersimulationen eingesetzt, um beispielsweise Spannungsverteilungen an Bauteilen zu ermitteln
1) Das bedeutet, dass die Niederschlagsmessungen der Wetterdienste seit dem Beginn regelmäßiger Meßreihen vor ca. 150 Jahren systematische Fehler von minus 10-30% beinhalten, je nach Meßverfahren, Region, Ort etc. Zwar ist dies den Meteorologen bewusst, aber alle Versuche zu Korrekturen, „Homogenisierungen“ usw. wurden aufgegeben, weil sie lediglich auf „Verschlimmbesserungen“ hinauslaufen [KEPU]
[EIMO] http://www.eike-klima-energie.eu/news-cache/monckton-fordert-vom-ipcc-eine-korrektur-im-ar-4/ abgerufen am 7.5.2013
[EIWI] http://www.eike-klima-energie.eu/climategate-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/ abgerufen am 12.5.2013
[ESCH] http://wattsupwiththat.com/2013/05/10/why-reanalysis-data-isnt-2/#more-86030 abgerufen am 11.5.2013
[GRAY] http://www.eike-klima-energie.eu/news-cache/der-weg-zurueck/  abgerufen am 15.5.2013
[KEPU] Puls, K.E.: Persönliche Mitteilung, August 2013.
[MEER] http://www.futureocean.org/static/www.futureocean.de/forschungsfelder/marine-ressourcen-u-risiken/meeresspiegelanstieg/fakten/ abgerufen am 13.5.2013
[ORTL]   http://www.brandeins.de/magazin/rechnen/die-welt-laesst-sich-nicht-berechnen.html  abgerufen am 14.5.2013
[QUIR] http://wattsupwiththat.com/2013/05/10/a-mean-study-of-australian-temperature/#more-86012 abgerufen am 11.5.2013
[RADI] http://radiology.rsna.org/content/251/1/13.full abgerufen am 7.5.2013
[ROHD] Robert A. Rohde, Global Warming Art, http://commons.wikimedia.org/wiki/File:Post-Glacial_Sea_Level.png  abgerufen 13.5.2013
[SATE] http://www.goes.noaa.gov/index.html  abgerufen am 14.5.2013
[SCHN] http://nibis.ni.schule.de/~lbs-gym/AnalysisTeil3pdf/Iteration.pdf
[SIEB] Sieber, H.: Mathematische Tafeln. E. Klett Verlag. Stuttgart.
[STOR] Der Spiegel 11/2007, S.56.
[THUE] http://www.derwettermann.de/klimaforschung-agiert-weiter-fern-jedweden-wirklichkeitsbezugs.html 
[WAUH] http://wattsupwiththat.com/2011/08/16/new-paper-climatic-trends-in-major-u-s-urban-areas-quantifies-the-uhi-effect-and-the-impact-on-climate-trends/  abgerufen am 12.5.2013
[WIMA] http://de.wikipedia.org/wiki/Mathematik abgerufen am 14.5.2013
[WIME] http://de.wikipedia.org/wiki/Meteorologie#Wetterdaten abgerufen am 11.5.2013
[WISL] http://de.wikipedia.org/wiki/Meeresspiegel  abgerufen am 7.5.2013
[WIWD] http://de.wikipedia.org/wiki/Wetterstation  abgerufen am 5. 5. 2013

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken