„Simple Physik“ oder „Die unerträgliche Komplexität des Klimas?“

Immer wieder lese ich Äußerungen (* man sehe z.B. hier ab Min 4:46)  an verschiedenen Stellen über die Unbestreitbarkeit der „einfachen physikalischen Tatsache“, dass die von uns eingebrachte Menge von CO2 in die Atmosphäre zwangsläufig die Erde erwärmen würde. Und liest sich so:

In der übertreibenden Sprache, die die Debatte verseucht hat, sind Forscher schon wegen Allem verdächtigt worden, angefangen damit, dass sie die Wissenschaftlichkeit aufgegeben hätten, um an einer umfassenden Verschwörung mitzumachen. Doch die Grundlagen des Treibhauseffekts beruhen auf einfacher Physik und Chemie. Sie waren etwa ein Jahrhundert lang Bestandteil des wissenschaftlichen Dialogs.   

Und hier noch ein Beispiel:

Wichtig ist, dass wir wissen, wie die Treibhausgase auf das Klima einwirken. Vor hundert Jahren hat Arrhenius das vorhergesagt. Es ist einfache Physik.

Unglücklicherweise ist die Physik einfach, das Klima bei weitem nicht. Es ist eines der komplexesten Systeme, die wir kennen. Das Klima ist ein Tera-Watt-Wärme-Maschine von planetarischem Ausmaß. Es wird angetrieben sowohl von irdischen wie von außerirdischen Kräften, von denen eine ganze Menge unbekannt ist. Viele verstehen wir kaum und/oder können sie nur schwierig messen. Es ist inhärent chaotisch und turbulent, zwei Bedingungen, für die wir wenige mathematische Werkzeuge haben.

Fünf Haupt-Subsysteme bilden das Klima: Atmosphäre, Ozeane, Kryosphäre, Lithosphäre und Biosphäre. Wir verstehen sie alle nur unvollkommen. Auf jedes dieser Subsysteme wirken bekannte und unbekannte interne und externe Kräfte, Rückkopplungen, Resonanzen und zyklische Änderungen. Dazu wirkt jedes Subsystem auf die anderen durch eine Vielzahl von bekannten und unbekannten Kräften und Rückkopplungen ein.

Dann ist da noch das Größenordnungsproblem. Entscheidend wichtige Prozesse des Klimas verlaufen physikalisch von der molekularen bis zur planetarischen Größenordnung und zeitlich vom Millisekunden- bis zum Jahrtausend-Bereich.

Das Ergebnis dieser nahezu unvorstellbaren Komplexität ist, dass die einfache Physik schlicht ungeeignet ist, um die Wirkung einer Klimaänderung vorherzusagen, wenn einer aus den vielen Hunderten von Einflussfaktoren verändert wird.
Ich möchte an zwei Beispielen erläutern, warum die einfache Physik nicht auf das Klima anwendbar ist: an einem Fluß und an einem Stahlblock. Mit einem Gedankenexperiment mit dem Stahlblock geht es los.

Nehmen wir an, ich will wissen, wie die Temperatur auf feste Körper wirkt. Ich nehme einen 75 Kg schweren Stahlblock und setze ihn mit dem Boden in einen Eimer mit heißem Wasser. In bester physikalischer Vorgehensweise befestige ich mit Klebeband ein Thermometer am oberen Ende und beginne mit der Temperaturaufzeichnung. Zunächst passiert nichts. Ich warte also. Und bald beginnt die Temperatur am oberen Teil des Stahlblock zu steigen. Das ist doch einfache Physik, nicht wahr?

Um meine Ergebnisse zu bestätigen, mache ich das Experiment mit einem Kupferblock. Ich erhalte das gleiche Ergebnis. Der nicht im Wasser befindliche Teil des Blocks fängt rasch an, sich zu erwärmen. Ich versuche es mit einem Glasblock mit gleichem Ergebnis. Meine vorläufige Schlussfolgerung ist eine Lehre der einfachen Physik: wenn ein Teil eines Festkörpers erwärmt wird, erwärmt sich der andere Teil auch.

Nun mache ich einen abschließenden Versuch. Ohne mir etwas Besonderes dabei zu denken, schießt mir durch den Kopf: Ich wiege etwa 75 Kg. Also setze ich mit den Füßen in einen Eimer mit warmem Wasser, stecke mir das Thermometer in den Mund und warte darauf, dass mein Kopf wärmer wird. Diese Versuchsanordnung ist oben in Abbildung 1 dargestellt.

Wie unser Gedankenexperiment zeigt, kann die einfache Physik nicht funktionieren, wenn es um ein komplexes System geht. Das Problem besteht darin, dass es Rückkopplungsmechanismen gibt, die den Effekt des warmen Wassers auf meine kalten Zehen unwirksam machen. Die von meinem Körper angestrebte Temperatur wird nicht von externen Kräften geregelt.

Für eine verfeinerte Sicht auf das Geschehen betrachten wir das zweite Beispiel, einen Fluss. Hier wieder ein Gedankenexperiment.

Ich nehme eine Sperrholzplatte und bedecke sie mit etwas Sand. Ich hebe sie derart hoch, dass eine schiefe Ebene zwischen den Seiten entsteht. In unserem Gedankenexperiment stellen wir uns vor, dass dies ein Hügel ist, der zum Meer hin abfällt. 

Ich lege eine Stahlkugel auf die obere Seite der sandbedeckten Sperrholzplatte und beobachte, was passiert. Die Kugel rollt geradeswegs zur tiefem Seite hinunter, wie die einfache Physik uns lehrt. Mit einer Holzkugel erhalte ich das gleiche Ergebnis. Ich denke nun, dass dies eine Folge der Form des Objekts ist.

Also mache ich einen kleinen hölzernen Schlitten und setze ihn wieder auf die Platte. Und wieder rutscht er zum Meer hinunter. Ich versuche es nun mit einem Miniatur-Stahlschlitten mit gleichem Ergebnis. Auch der rutscht direkt zum Meer hinunter. Einfache Physik, wie schon von Isaac Newton erklärt.

Als Schlußtest nehme ich einen Schlauch und lasse etwas Wasser von der oberen Seite hinunter laufen, um einen Modellfluß zu machen. Zu meiner Überraschung fängt das Wasser bald an auszuweichen, obwohl der Modellfluß gerade nach unten gerichtet beginnt. Binnen kurzem hat es einen mäandrierenden Verlauf gebildet, der sich auch noch verändert. Flußabschnitte bilden lange Schleifen, das Bett ändert sich, Schleifen werden abgeschnitten, neue bilden sich und nach einer Weile erhalten wir etwas wie dieses: 

Abbildung 2. Mäander, Altwasserschleifen und tote Abwasserarme in einem Flußsystem. Man beachte das alte ursprüngliche Flußbett.

Am erstaunlichsten ist, dass der Prozeß nie aufhört. Gleichviel, wie lange wir das Flußexperiment durchführen, das Flußbett verändert sich stets. Was ist hier los?

Also, zuvörderst können wir feststellen, dass die einfache Physik in dieser Situation nicht so funktioniert, wie beim Stahlblock. Die einfache Physik lehrt, dass die Dinge geradeswegs abwärts rollen, aber das passiert hier nicht … also brauchen wir bessere Werkzeuge, um den Wasserfluß zu anaylisieren.

Gibt es mathematische Werkzeuge, um dieses System zu verstehen? Ja, aber sie sind nicht einfach. In den 1990ern gab es einen Durchbruch mit Adiran Bejans Entdeckung der Konstruktions-Morphologie. Die Konstruktions-Morphologie gilt für alle fließenden Systeme, die weit vom Gleichgewicht entfernt sind, wie ein Fluß oder das Klima. 

Es zeigt sich, dass derartige Fließsysteme keine passiven Systeme sind, die jedwege Form annehmen können. Stattdessen streben sie zur Maximierung eines Aspekts des Systems. Beim Fluß wie auch beim Klima strebt das Flußsystem danach, die Summe der bewegten Energie und der durch Turbulenz verlorenen Energie zu maximieren. Zur Erklärung dieser Prinzipien siehe hier oder hier oder hier, oder hier
Es gibt auch eine Webseite, die vielen Anwendungen des Gesetzes der Konstruktions-Morphologie gewidmet ist.

Wir können einige Schlußfolgerungen aus der Anwendung des Gesetzes der Konstruktions-Morphologie ziehen:

1. Jedes weit vom Gleichgewicht entfernte Fließsystem kann nicht beliebige Form annehmen, so wie die Klimamodelle unterstellen. Stattdessen gibt es einen Zielzustand, den es zu erreichen versucht.

2. Dieser Zielzustand wird allerdings nie erreicht. Stattdessen schießt das System ständig über diesen Zustand hinaus oder bleibt darunter, es kommt niemals in einer abschließenden Form zur Ruhe. Das System bildet sein internes Erscheinungsbild stets neu in Richtung auf seinen Zielzustand aus.

3. Die Ergebnisse der Wechsel in einem derartigen Fließsystem sind oft nicht einsichtig. Nehmen wir beispielsweise an, wir wollten den Fluss verkürzen. Die einfache Physik sagt, das wäre leicht. Also schneiden wir eine Schleife ab und das verkürzt den Fluss … aber nur kurzfristig. Bald richtet sich der Fluss neu aus, und irgendwo wird ein anderer Teil des Flusses länger. Die Länge des Flusses wird von ihm selbst bestimmt. Ganz im Gegensatz zu unseren simplizistischen Annahmen können wir die Länge des Flusses nicht durch unsere Maßnahmen verändern.

Hier sehen wir nun das Problem mit der „einfachen Physik“ und dem Klima. Die einfache Physik sagt eine einfache lineare Beziehung zwischen den Klima-Antriebskräften [climate forcings]und der Temperatur voraus. Die Leute glauben wirklich, dass eine Veränderung von X bei den Klima-Antriebskräften unweigerlich zu einer Wirkung A * X auf die Temperatur führt. Das nennt man „Klima-Sensitivität“, und das ist eine Grundannahme bei den Klima-Modellen. Das IPCC sagt, dass eine Verdoppelung des CO2 etwa zu einer Erhöhung von 3C der globalen Temperatur führt. Es gibt aber wirklich keinen Beleg für diese Annahme, nur Computer-Modelle. Die aber nehmen diese Beziehung als vorgegeben an und können daher nicht als ihr Beweis dienen.

Wie schon die Flüsse zeigen gibt es keine einfache Beziehung in einem vom Gleichgewicht weit entfernten Fließsystem. Wir können eine Schleife abschneiden, um den Fluss zu verkürzen, der aber verlängert sich dann woanders, um seine Gesamtlänge zu behalten. Anstatt sich von einer Veränderung der Antriebskräfte beeinflussen zu lassen, setzt sich das System seine eigenen Zielzustände  (z. B. Länge, Temperatur, usw.), die auf natürlichen Grenzen beruhen und Fließmöglichkeiten und noch anderen Systemparametern.

Was lernen wir daraus? Das Klima ist ein vom Gleichgewicht weit entferntes Fließsystem. Es wird vom Gesetz der Konstruktions-Morphologie beherrscht. Daraus abgeleitet: es gibt keine physikalisch begründbare Annahme, dass mehr CO2 einen Unterschied für die globale Temperatur bedeutet.  Das Gesetz der Konstruktions-Morphologie zeigt eher in die Denkrichtung, dass es überhaupt keinen Unterschied macht. Wie dem auch sei und unabhängig von Arrhenius, wir können nicht einfach annehmen, dass die auf einfacher Physik beruhende Beziehung zwischen CO2 und der globalen Temperatur zutrifft.

Willi Eschenbach Tuvalu

Aus dem Englischen von Helmut Jäger für EIKE. Der Originalartikel erschien hier.




Inventur nach „Floppenhagen“!

AUSLÖSER DER TRUNKENHEIT

Die Faktoren, die in unseren Gesellschaften aus Angst vor einem Klimawandel das kritische Denken eingeschränkt haben, sind vielfältig. Es scheint, als waren zu Anfang – und sind es im­mer noch – Leute am Werk, die mit großem Engagement und Tatkraft  vielleicht Gutes im Sinn hatten, die aber von der Hauptsache keine Ahnung haben, nämlich von der Erde und ihrem Klima. 

Gründung des IPPC

Zwischen ca. 1947 und 1976 erfuhr die Erde eine sehr deutliche Abkühlung; Ende der 70er Jahre wurde schon eine Eiszeit befürchtet, was den amerikanischen Journalisten Lowell Ponte ein spektakuläres Buch schreiben ließ – The cooling: has the next ice age began? Can we survive it? Nach der Abkühlung folgte zwischen 1980 und 2000 eine überdurchschnittliche Erwärmung. Nur wer ausschließlich den Gegensatz zwischen diesen beiden Phasen bewertete, konnte auf den Gedanken einer globalen Erwärmung kommen – vorausgesetzt, er wusste nicht, dass Klimaent­wicklungen nicht für so kurze Zeitabschnitte beurteilt werden dürfen, oder es waren keine kli­matologischen sondern politische Beweggründe ausschlaggebend. Die folgenden Zitate aus dem Interview mit dem Zeitzeugen Hartmut Bachmann in der WELTWOCHE vom Juli 2009 beweisen, dass politische Motive bestimmend waren: 

Maurice Strong, erster UNEP-Direktor: „Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“

Prof. Dr. Stephen Schneider, Lead Author in Working Group of the IPCC, sagten 1989:

„Deshalb müssen wir Schrecken einjagende Szenarien ankündigen, vereinfachende, dramatische Statements machen und wenig Erwähnung irgendwelcher Zweifel, die wir haben mögen, entlassen. Um Aufmerksamkeit zu erregen brauchen wir dramatische Sta­tements und keine Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er eher ehrlich oder eher effektiv sein will.“ 

„…eher effektiv…“ bedeutet ja, gegen die Wirklichkeit der Fakten zu handeln. Was waren das für Leute? Dass dieses Konzept grundsätzlich dumm ist, konnte man doch damals auch schon wis­sen, denn über kurz oder lang würde sich die Wirklichkeit nicht mehr verdrängen lassen und das Konzept als Betrug entlarvt werden. Das Schicksal des Kommunismus hätte ihnen ein Beispiel sein können: Das „morgen geht es uns besser“ ist verbraucht, wenn morgen erreicht ist. Inzwi­schen ist morgen erreicht, denn viele Prognosen erweisen sich als falsch, und deren Gegenteil ist eingetreten. ClimateGate zeigt, wie das verschleiert werden sollte. 

 

…..

In den Medien ist der Begriff Klimawandel allgegenwärtig, und obwohl die Physik bestrebt ist, Systeme zu definieren, wird in der öffentlichen Diskussion nirgendwo gesagt,  was einen Kli­mawandel ausmacht. Ist das Fehlen einer klaren Definition Absicht?

Wenn heute die Sonne scheint und es morgen regnet, oder wenn auf einen etwas zu kalten Som­mer ein etwas zu warmer Winter folgt, oder wenn sich die Mittelwerte zweier Perioden nur we­nig voneinander unterscheiden und folglich unsere Lebensumstände nicht beeinflussen,  ist das nur eine Temperaturschwankung. Solche Schwankungen gab es immer. Wie groß müssen die Veränderungen sein, damit eine Temperaturschwankung zum Klimawandel wird?

Wurde der Klimawandel bisher nicht definiert,  um einfache Temperaturschwankungen als Kli­mawandel behandeln zu können? Gegenwärtig wird etwas beurteilt, was nicht definiert ist. Dabei kann man nur etwas beurteilen, das man kennt. Alle reden vom Klimawandel, aber keiner weiß, wann er anfängt – anscheinend nicht in der Wissenschaft und schon gar nicht in den Medien.

Dabei ist die Unterscheidung zwischen Temperaturschwankung und Klimawandel schon lange möglich: Es wurden Klimaklassifikationen etabliert, beispielsweise von KÖPPEN + GEIGER, die die Klimate der Welt auf der Grundlage der Klimaelemente (Temperatur, Niederschlag …)  in Klimaregionen einteilen, wobei die Regionen jeweils mehrere Klimazonen umfassen, die durch spezifische Klimaformeln definiert sind. Für Berlin und weite Teile Deutschlands gilt die Klima­formel Cfb, für Mailand und Oberitalien Cfa, wobei Cf  ein warmgemäßigtes immerfeuchtes 

Klima beschreibt, und der dritte Buchstabe zwischen den Mitteltemperaturen der Sommermonate unterscheidet: Cfa > 22°C; Cfb < 22°C; Cfa kennzeichnet die Klimazone von Mailand und Oberitalien, Cfb von Berlin und weiter Teile Deutschlands.  

Die Orte einer Klimazone können unterschiedliche mittleren Jahrestemperaturen haben. Sie betragen für Berlin-Dahlem 8,8° und für das etwas wärmere Frankfurt/Main 9,73°, d.h. der Un­terschied innerhalb dieser Klimazone beträgt 0,93°. Das zur wärmeren Klimazone gehörende Mailand hat eine Durchschnittstemperatur von 12,77°. Die Unterschiede zwischen Ber­lin/Frankfurt und Mailand betragen 3,97° bzw. 3,04° . 

Diese Unterschiede rechtfertigen die Folgerung, dass kleine Temperaturänderungen als Schwan­kungen bzw. entsprechend große als Klimawandel zu klassifizieren sind. Eine absolute Grenze lässt sich nicht festlegen, näherungsweise  könnte sie zwischen 1,5 und 2° liegen. 

….

In einer Tageszeitung sieht man im Kreise von Kindern eine Lehrerin, die ihre Schützlinge über das gefährliche CO2 ‚aufklärt’, nicht selten wird es sogar schon als giftig hingestellt. CO2 ist le­bensnotwendig, denn die Pflanzen stellen aus CO2 und Wasser mittels Photosynthese Trauben­zucker her, und damit alle weiteren Nahrungsmittel. Außerdem ist CO2 Teil der Atemluft. Wie sollen Kinder ein gesundes Gefühl für die Natur entwickeln können, wenn man sie schon im Grundschulalter derart indoktriniert?

Das Publikum ist größtenteils nicht in der Lage, wissenschaftliche Erkenntnisse zu beurteilen und nimmt sie schnell für bare Münze. Wer von einem Forschungsgebiet die Grundlagen nicht versteht, kann verständlicherweise nicht erkennen, ob ein Ergebnis richtig ist. Es ist tägliche Pra­xis, dass in der Regel nicht hinterfragt wird, was wissenschaftlich ermittelt wurde. Das gilt umso mehr, je prominenter die Institutionen und die Persönlichkeiten sind. In unserer Leistungsgesell­schaft wird Prominenz auch in der Wissenschaft leider nicht selten vorrangig durch Vermark­tungskompetenz erworben. Statt Wissenschaftsgläubigkeit wäre – ausnahmsweise – Lenin ange­bracht, nämlich: „Vertrauen ist gut, Kontrolle ist besser.“  Auf gut demokratisch heißt das: angst­freie, transparente und unbehinderte Diskussion.  

Das umso mehr, als auch im Grenzgebiet des Wissens für die Forschung das Prinzip von Ver­such und Irrtum gilt. Ein junger Forscher antwortet auf die Frage nach seiner gegenwärtigen Ar­beit: „Ich bereite meinen nächsten Irrtum vor“. ….

…..Vor 300 Jahren ging die Kleine Eiszeit zu Ende und danach hat sich die Temperatur erholt. Sie ist seitdem weltweit im Mittel um 0,7° C angestiegen, aber auch nicht überall auf der Erde, denn in manchen Regionen hat sie sich um 0,5°C sogar verringert. In diesen 300 Jahren verlief  die Rückerwärmung nicht gleichmäßig, sondern wurde von Phasen der Abkühlung unterbrochen – beispielsweise zwischen 1947 und 1976, oder nach 2002, als eine neue Abkühlungsphase be­gann. Die Rückerwärmung erfolgte außerdem nicht überall auf der Erde, sondern es gab auch immer benachbarte Regionen, deren Temperaturen sanken. Solche Regionen gab es sogar in der überdurchschnittlichen Erwärmungsphase zwischen 1980 und 2000.  

Wie in den Jahrhunderten zuvor gab es auch in den letzten 300 Jahren lediglich Temperatur­schwankungen üblichen Ausmaßes, ein globaler Klimawandel lässt sich aus den realen Tempe­raturmessungen nicht erkennen; ein wirklicher Klimawandel erforderte auch sehr viel größere Änderungen. Der ‚Globale Klimawandel’ ergibt sich nur aus Modellrechnungen – ohne Compu­ter wäre dieses Phantom nie geboren worden. …

….

Der Nordseespiegel ist zwischen 1600 und 1800 mit ca.  4 mm/a und zwischen 1800 und 2000 mit ca. 2 mm/a angestiegen. Das wird sich noch einige Zeit fortsetzen, weil der Meeresboden und die umgebende Küstenregion isostatisch absinken. An den Küsten der Malediven, Tuvalu und Vanatu sowie den Inseln der Karibik variiert der Meeresspiegel periodisch aber erhöht hat er sich in den letzten Jahrzehnten nicht.

 

….

Die Diskussion um den Klimawandel ist seit einiger Zeit um die ‚Versauerung der Ozeane’ er­gänzt worden, weil der pH-Wert sich von 8,2 auf 8,1 erniedrigt hat. 

Der Begriff ‚Versauerung’ ist falsch, denn die Zahlen belegen lediglich eine Verringerung der Alkalität, denn mit pH = 8,1 befinden sich die Meere immer noch im alkalischen Bereich und eine mehr als zehnfache Veränderung wäre notwendig, um ab pH =7 das Wasser wirklich sauer werden zu lassen

Der Begriff ‚Versauerung’ – schlimmer noch: Übersäuerung – wurde vermutlich gewählt, um den Eindruck einer Verschlechterung des Zustandes der Meere zu erwecken. Wenn die Vermu­

tung stimmt, wussten die Urheber dieses Begriffes nichts von den Wachstumsbedingungen tropi­scher Korallenriffe: mehr CO2 befördert ihr Wachstum, das gleichzeitig  CO2 wieder verbraucht.

Grundsätzlich ist zu bezweifeln, dass dieser Komplex überhaupt beurteilt werden kann, denn repräsentative Langzeitmessungen über den pH-Wert der Meere liegen sehr wahrscheinlich nicht vor, und noch weniger sind deren regionale und tiefenabhängige Schwankungen bekannt. Auf welcher Basis wollte man beurteilen, ob und in welchem Maße und mit welcher Periodizität der pH-Wert sich überhaupt ändert?

 

Es ist eine Tatsache, dass sich im Laufe der Erdgeschichte das Klima ständig geändert hat und zwar ohne unseren Einfluss, denn es gab uns noch nicht. Auf die Frage des Autors an den Pres­sesprecher des Potsdamer Instituts für Klimafolgenforschung (PIK), warum man denn die geolo­gischen Fakten nicht bewerte, antwortete er, dass man die historischen Gegebenheiten vernach­lässigen könne, weil die Modellrechnungen die weitere Entwicklung genauer anzeigen. Hinweise von Geologen an modellrechnende Klimaforscher, man möge doch die aus der Erdgeschichte be­kannten Klimaentwicklungen berücksichtigen, blieben unbeachtet. Sachlich wäre die gegentei­lige Praxis richtig: Wenn Ergebnisse von Modellrechnungen den historischen Fakten widerspre­chen, sind die Berechnungen falsch.

Es ist erstaunlich, dass Klimaforscher, die ihrer Ausbildung und Tätigkeit nach nur wenig von der Erde wissen können, überzeugt sind, alle und die richtigen Parameter für ihre Modellrech­nungen zu kennen. Es muss daran erinnert werden, dass solche Modellrechnungen kaum das Grundprinzip von Wissenschaftlichkeit erfüllen: Die Nachprüfbarkeit des Modells oder der Ein­gaben durch andere ist nicht gegeben oder zumindest fraglich. Man kann an ein Symphoniekon­zert denken: Dirigenten verwandeln gleiche Noten in ungleiche Hörerlebnisse. ..

 

Auf der oben genannten Berliner Tagung wurde gefolgert, dass viele Klimafaktoren noch nicht ausreichend bekannt und verstanden sind. Dazu passt, dass sich inzwischen  Prognosen als falsch herausgestellt haben, die ursprünglich als Meilensteine verkündet wurden – weder der Meeres­spiegel noch die globalen Temperaturen steigen wie vorausberechnet. Der Meeresspiegel der Weltmeere ist über 18 Jahre konstant geblieben und die Temperaturen sinken sogar. Auch diese beiden Entwicklungen sind im voraus nicht erkannt worden. 

Jetzt wäre es zweckmäßig, erst mal eine Zeit lang zu messen und zu beobachten, um zu sehen, was vom prognostizierten Klimawandel bestätigt wird. Wahrscheinlich wird sich die um 2000 begonnene Abkühlung fortsetzen, und damit wird auch der Glaube an den Klimawandel ein­schlafen.

Wenn Politiker sagen, dass sie handeln müssen, um eine mögliche Gefahr abzuwenden, dann sollten sie auch die Wahrscheinlichkeit ihres Eintretens und die Kosten gegeneinander abwägen. Ab einem bestimmten Missverhältnis sind Investitionen zur Abwehr einer noch möglichen aber nicht mehr wahrscheinlichen Gefahr nicht mehr zu rechtfertigen. Außerdem ist die von uns Men­schen schon immer geübte Anpassung an neue Gegebenheiten die bessere und effizientere Me­thode mit Änderungen fertig zu werden, als der extrem teure aber ergebnislose Versuch, die na­turbedingte Gefahren zu vermeiden. …

..

Statt unsere Energien im Kampf für den Klimaschutz ergebnislos zu verbrauchen, sollten wir sie auf Umweltschutzmaßnahmen konzentrieren, und da bieten beispielsweise Erdbeben ein lohnen­des Investitions- und Betätigungsfeld: Selbstverständlich kann man Erdbeben nicht verhindern, aber man kann ihre Schäden und ihre Opferzahlen minimieren. In Japan und Kalifornien wird das seit langem erfolgreich praktiziert. So forderte das Gilan-Beben im Iran 1990 30.000 –

50.000 Tote, während ein gleich starkes Beben im gleichen Jahr in Kalifornien nur 84 Men­schenleben kostete. Die Schäden eines Erdbebens sind nicht nur seiner Stärke geschuldet, son­dern auch einer nicht angepassten Besiedlung und Bauweise. Die Schäden des Erdbeben auf Haiti zeigen dies überdeutlich. Es würde sich auszahlen, dort – und in anderen gefährdeten Ge­bieten – in angepasste Besiedlungen und eine stabilere Bauweise zu investieren.

Das Phantom ‚Klimawandel’ hat sich inzwischen zu einer Pseudoreligion entwickelt und da Menschen ein Glaubensbedürfnis haben, pilgern sie in Scharen zu den Klimakonzilien. Jedes kostet einen vielstelligen Millionenbetrag und endet zwangsläufig mit einer Enttäuschung. Das Geld wäre sinnvoller für direkte Maßnahmen des Umweltschutzes ausgegeben statt für den in­ternationalen Konferenztourismus.

 

Prof. Dr. F.K. Ewert EIKE

*Dieser Beitrag ist keine wissenschaftliche Publikation, weshalb keine Quellen zitiert werden, die jedoch im Bedarfsfalle für alle genannten Fakten zur Verfügung gestellt  werden können. 

Den ganzen Text finden Sie in der Anlage als pdf Datei

 

Related Files




ClimateGate 22: IPCC erneut der Falschmeldung überführt. Regenwaldbedrohung im Amazonas stammt vom Holzeinschlag nicht vom Klimawandel!

 „Wir tun unser Bestes beim Auswerten der Qualitätsinformationen zu Fragen des Klimawechsels hinsichtlich aller Aspekte. Einigen Leuten gefallen unsere Arbeitsergebnisse nicht. Nun ist es mal passiert, wir haben einen Fehler gemacht in der Sache mit dem Gletscher, doch das ist ein Fehler in einer Angelegenheit in einem Bericht von 3.000 Seiten. Wir werden unser Verfahren verbessern, damit so etwas nicht noch einmal geschieht.“

Das sagt Jean-Pascal von Ypersele, der stellvertretende Vorsitzende des IPCC heute [27.01.10] im The Daily Telegraph – und so wird das auch verbreitet von der wohlbekannten Louise Gray, der außergewöhnlichen Lieferantin von WWF Presseverlautbarungen. Es war schlicht ein „menschlicher Irrtum“, fügt er hinzu.

„Ist Irren nicht menschlich? Auch das IPCC ist eine Institution von Menschen, und ich kenne keine, die keine Fehler macht. Und doch ist es ein bedauernswerter Vorfall, dass wir diese falsche Beschreibung des Himalaya-Gletschers veröffentlicht haben,“

sagt er weiter.

Dennoch hält das IPCC weiter an seiner Legende fest, dass dies der „einzige Irrtum“ sei, steckt seinen Kopf tief in den Sand und ignoriert die wachsenden Beweise, dass der IPCC-Bericht mit Irrtümern gespickt ist – um eine noch sehr wohlwollende Bezeichnung zu gebrauchen.

Ein weiterer dieser „Irrtümer“ ist die falsche Behauptung, auf die ich in einer meiner kürzlichen Beiträge über „Amazonasgate“ hingewiesen habe. Das IPCC hat die Auswirkung des Klimawandels auf die Amazonas-Urwälder grob übertrieben und behauptet, dass „bis zu 40% des Amazonas-Urwaldes drastisch auf eine noch so kleine Verminderung im Niederschlag reagieren könnten“ – und das auf Grund eines nicht von Fachleuten überprüften WWF-Berichts, dessen verantwortlicher Autor Andy Rowell ein freier Journalist ist.

Weil ich aber auch „menschlich“ bin – wenn auch Einige diesen Anspruch stark bezweifeln – scheint mir, dass ich mich in meiner Analyse geirrt habe mit meinem Vorwurf, dass in dem vom IPCC herangezogenen Dokument kein Beleg für die Behauptung des IPCC wäre, dass „40 Prozent des Amazonas vom Klimawechsel bedroht sind“.

Tatsächlich ist das der Vorwurf, den James Delingpole und Watts up with that verbreiten, während ich doch wirklich geschrieben hatte, dass die vom Autor des WWF-Berichts stammende Behauptung, „bis zu 40% des Amazonas-Urwaldes könnten drastisch auf eine ganz geringe Verminderung des Niederschlags reagieren“ nirgendwo im Bericht zu finden wäre.

Den WhatsUpWithThat Beitrag hat ein gewisser „Icarus“ kommentiert, der anmerkte, dass es eine Referenz für die 40%-Zahl im WWF-Bericht wie folgt gibt:

Bis zu 40% des Brasilianischen Urwaldes sind extrem empfindlich für kleine Verminderungen der Regenmenge. Während der 1998er trockenen Jahreszeit wurden rund 270.000 qkm feuergefährdet, weil das für die Pflanzen erreichbare und in den oberen fünf Metern des Erdbodens gespeicherte Wasser völlig ausgetrocknet war. Für weitere 360.000 qkm Urwald gab es nur noch 250 mm pflanzenerreichbares Grundwasser.

Da ich diesen Absatz völlig übersehen hatte, ist das mein Irrtum. Und deshalb habe ich den Vorwurf erhoben, der IPCC-Absatz wäre „eine Erfindung, die noch nicht einmal im angegebenen Verweis“ zu finden sei.

Dennoch wird die Geschichte interessanter, weil sich die Behauptung von Rowell und seinem Ko-Autor Peter Moore auf einen Artikel im Magazin „Nature“ bezieht, nämlich auf:

D. C. Nepstad, A. Veríssimo, A. Alencar, C. Nobre, E. Lima, P. Lefebvre, P. Schlesinger, C. Potter, P. Mountinho, E. Mendoza, M. Cochrane, V. Brooks, Large-scale Impoverishment of Amazonian Forests by Logging and Fire, Nature, 1999, Vo l 398, 8 April, pp505.

Der Zugriff auf den Artikel ist gebührenpflichtig, dennoch habe ich eine freie Version dieses Papiers hier gefunden. Das Papier ist veröffentlicht in den „letters to Nature“ und in diesem Magazin wurde es fachlich begutachtet (was nicht bei allen Zeitschriften der Fall ist). Worauf sich sofort die Frage erhebt, warum die IPCC-Autoren statt des „Nature“-Artikels eine sekundäre Referenz zitierten.

Die Erklärung liegt vielleicht im Titel des Artikels: „Großflächige Verarmung der Amazonas-Urwälder durch Holzeinschlag und Feuer“, – d.h. es geht nicht um den Klimawandel. Beim Durchforschen des Textes haben wir nach Abschnitten gesucht, die die Behauptung von Rowell & Moore und nachfolgend des IPCC vielleicht stützen könnten. Um uns vor Augen zu führen, was da geschrieben worden ist, zitieren wir die Textstellen hier.

Zuerst aus dem IPCC Fourth Assessment Report, Working Group II – Chapter 13:

Bis zu 40% des Amazonas-Urwaldes könnten drastisch auf eine schon geringe Verminderung des Niederschlags reagieren; das bedeutet, dass die tropische Vegation, der Wasserhaushalt und das Klimasystem in Südamerika sehr schnell in einen anderen stabilen Zustand umschlagen könnte, wobei nicht notwendigerweise graduelle Veränderungen [beim Übergang] zwischen der gegenwärtigen und der zukünftigen Situation stattfänden. (Rowell und Moore, 2000)

Dazu wird die Referenz genannt: Rowell, A. and P.F. Moore, 2000: Global Review of Forest Fires. WWF/IUCN, Gland, Switzerland, 66 pp – mit zwei Links, hier und hier. Die entsprechende Textstelle lautet:

Bis zu 40% des Brasilianischen Urwaldes sind extrem empfindlich selbst auf kleine Verminderungen der Regenmenge. Während der 1998er trockenen Jahreszeit wurden rund 270.000 qkm feuergefährdet, weil das für die Pflanzen erreichbare und in den oberen fünf Metern des Erdbodens gespeicherte Wasser völlig ausgetrocknet war. Für weitere 360.000 qkm Urwald gab es nur noch 250 mm pflanzenerreichbares Grundwasser.

Wenn wir jetzt einen Beleg für diese Behauptung suchen, gehen wir zum Papier in „Nature“, wo die entsprechenden Abschnitte wie folgt lauten:

 „Obwohl der Holzeinschlag und die Waldbrände normalerweise nicht alle Bäume zerstören, schädigen sie dennoch den Wald ernstlich. Holzfirmen in Amazonia zerstören oder beschädigen 10-40% der lebendigen Biomasse des Waldes durch das Abholzen. Das Abholzen erhöht auch die Entzündbarkeit des Waldes indem das Blätterdach um 14-50% vermindert wird und so das Sonnenlicht auf den Waldboden gelangen läßt, welches dort die organischen Überreste austrocknet, die durch den Holzeinschlag entstanden sind.“

Die mit dem El-Nino-Phänomen  (El Nino-Southern Oscillation) zusammenhängende Dürre kann große Flächen des Amazonas-Urwaldes austrocknen und erzeugt die Gefahr großflächiger Waldbrände. Infolge der heftigen Dürren von 1997 und 1998 schätzen wir, dass bei ca. 270.000 qkm des Amazonas-Urwaldes am Ende der 1998er trockenen Jahreszeit das in den oberen fünf Metern gespeicherte und für Pflanzen erreichbare Wasser völlig geleert war. Zusätzlich waren für 360.000 qkm Wald weniger als 250 mm pflanzenerreichbares Grundwasser übrig. Zum Vergleich: nur 28.000 qkm Wald in Roraima hatten das Grundwasser bis zu 5 m tief geleert, als die Roraima-Waldbrände auf dem Höhepunkt waren."

So können wir feststellen, dass eine Behauptung (IPCC), wonach „bis zu 40% des Amazonas-Urwaldes drastisch auf eine schon geringe Verminderung des Niederschlags reagieren könnten“,  auf eine Behauptung (Rowell & Moore) zurückgeführt werden kann, wonach „bis zu 40% des Brasilianischen Urwaldes extrem empfindlich selbst auf kleine Verminderungen der Regenmenge sind“. Aber das scheint allein auf der Behauptung zu gründen, dass „Holzfirmen in Amazonia 10-40% der lebendigen Biomasse des Waldes durch das Abholzen zerstören oder beschädigen“.

Anders gewendet und beginnend bei „Nature“ wird der Satz: 

„Holzfirmen in Amazonia zerstören oder beschädigen 10-40% der lebendigen Biomasse des Waldes durch das Abholzen“ 

zu 
„bis zu 40% des Brasilianischen Urwaldes sind extrem empfindlich selbst auf kleine Verminderungen der Regenmenge“,

bis daraus wird:  
„Bis zu 40% des Amazonas-Urwaldes könnten drastisch auf eine schon geringe Verminderung des Niederschlags reagieren“.

Und so etwas nennt Jean-Pascal von Ypersele das „Auswerten der Qualitätsinformationen zu Fragen des Klimawechsels hinsichtlich aller Aspekte“.

Zur Beantwortung unserer eigenen Frage, warum die IPCC-Autoren nicht die fachbegutachtete Referenz in „Nature“ benutzten und stattdessen die Sekundärquelle, wird der Grund nun klar: Das Papier stützte schlicht die Behauptung nicht, die sie machen wollten.

Dabei kommt es nur auf den Kontext an. Im „Nature“-Papier schreiben die Autoren über die Auswirkungen des Holzeinschlags auf den Regenwald. Sie beschreiben, wie selektives Baumfällen (z. B. Mahagoni wird eigens erwähnt) den betroffenen Wald schädigt, indem die verbleibenden Bäume anfälliger für die Dürre werden. Daher ist die erhöhte Empfindlichkeit auf verminderte Niederschläge – sollten diese eintreten – ein Sekundär-Effekt, der nur die bereits geschädigten Wälder betrifft.

In diesem Kontext beziehen sich die 40 Prozent, auf welche sich Rowell & Moore und nachfolgend das IPCC stützen, nicht auf ein Gebiet des Amazonas-Regenwaldes, stattdessen auf den Anteil von Bäumen, die infolge des Holzeinschlags in einzelnen Waldschneisen geschädigt sind (und es ist auch noch die höchste Schätzung). Dies kann nicht auf die Gesamtheit des Amazonas-Urwald-Gebietes ausgeweitet werden.

Als Anhalt für das Ausmaß des Schadens gibt es nur die Abschätzung im „Nature“-Papier, dass 

„etwa 270.000 qkm Amazonas-Urwald vollständig das pflanzenerreichbare Wasser in den oberen 5 m des Bodens am Ende der 1998er trockenen Jahreszeit geleert hätten,“ 

und dass zusätzliche 360.000 qkm unter verminderter Wasserverfügbarkeit litten – daher seien diese Bäume stärker anfällig gegen die Dürre.

Drei Punkte sind nun interessant:

Erstens, die Gebiete zusammen beziehen sich auf ein Gesamt-Urwaldgebiet von 4 – 6 Millionen qkm. Sie stellen also nur etwa 10 Prozent der Gesamtfläche dar.

Zweitens, die Auswirkungen wurden in Bezug auf starke Dürre beobachtet, die aus einer ungewöhnlich starken El Nino-Episode herrührten, sie hatten nichts mit dem Klimawandel zu tun.

Und drittens ist der Dürre-Effekt lokalisiert. In anderen Gebieten des Urwaldes bringt El Nino erhöhte Regenfälle.

Man kann es drehen und wenden wie man will, das „Nature“-Papier kann nicht zum Beleg für die Behauptungen herangezogen werden, die von Rowell & Moore, wie auch vom IPCC aufgestellt werden. Und wie bei der Behauptung über die Himalaya-Gletscher sollte auch dieser IPCC-Textabschnitt zurückgezogen werden.

Richard North http://eureferendum.blogspot.com/2010/01/corruption-of-science.html

Die deutsche Übersetzung besorgte Helmut Jäger für EIKE

 




Der Treibhauseffekt – wie funktioniert er?

 Aus diesem Grunde haben wir  den Versuch unternommen, den Treibhauseffekt nach dem heutigen fachlichen Stand komprimiert und verständlich zu erklären. Leider hat sich dafür ein wenig Physik und Mathematik als unabdingbar erwiesen. Wir bitten  hierfür um Entschuldigung. Der Berichtstext ist wegen besserer Lesbarkeit der Formeln im angefügten pdf-Dokument enthalten.

Die Autoren

Prof. Dr. Horst-Joachim Lüdecke (EIKE-Pressesprecher)

Dr. Rainer Link (EIKE)

Related Files




Salzbergwerk „Asse“ ein Desaster – für wen eigentlich?

Im stillgelegten Salzbergwerk "Asse" bei Woifenbüttel wurden über Jahrzehnte, nachdem es dort kommerziell nichts mehr auszubeuten gab, Versuche zur Endlagerung von schwach- und mittelradioaktivem Abfall gemacht. Nun wurde die Offentlichkeit durch Fernsehberichte und Zeitungsartikel aufgeschreckt: ,,Asse stürzt ein", "Asse säuft ab", Asse verseucht das Grundwasser radioaktiv", "Asse als Endlager ungeeignet", "Asse – ein Atomdesaster" lauteten die Schlagzeilen und ich sagte, das will ich selbst sehen. Hier die Ergebnisse: 

D "Asse stürzt ein" – Falsch! Salzbergwerke wie die "Asse" können nicht einfach einstürzen. Salz verhält sich geologisch nämlich wie Knetmasse ("Viskoplastizität"), die verschoben werden kann, ohne dabei einzustürzen 

D "Asse säuft ab" – Falsch! Die Kaverne des Wassereintritts befindet sich in 658 m Tiefe. Die Flüssigkeit ist gesättigte Salzlauge. Es wird gesammelt und einmal pro Woche, nach "Freimessung zur Unbedenklichkeit" mit einem Tankwagen in die 100 Kilometer entfernte Grube "Maria Glück‘ gefahren. In Norddeutschland werden ausgebeutete Salzbergwerke oft durch Fluten mit Wasser still gelegt. Das Wasser macht sie geologisch stabil. Anfangs löst das Wasser noch etwas Salz auf, bis es gesättigt ist. Danach ist die gesättigte Lauge sogar weniger kompressibel als das etwas poröse Salzgestein. 

D "Asse verseucht das Grundwasser radioaktiv" – Falsch!

Das ist völlig absurd. Es wurde der bergmännische Begriff "Grundwasser" (Wasser am Grunde des Bergwerkes), mit dem hydrologischen Begriff "Grundwasser" verwechselt. Das hydrologische Grundwasser gehört nach EU Wasserrahmenrichtlinie zum Oberflächenwasser eines Flussbassins, nicht aber Tiefenwasser 638 m unter der Erde. 

D "Asse als Endlager ungeeignet" Falsch!

Der Abraum wurde nicht oberirdisch auf Halde gefahren, sondern unter Tage belassen, indem die ausgeräumten rechteckigen Kavernen ( 60x40x20 Meter) größtenteils gleich wieder mit Abraum verfüllt wurden. Um die "Bergmechanik" und die Eignung zur Endlagerung zu untersuchen, wurden dreizehn leere Kavernen mit radioaktivem Abfall gefüllt, eine in 490 Meter Tiefe mit mittelaktivem und zwölf in 7~ Meter Tiefe mit schwachaktivem. Alles wurde in 125000 Fässern von jeweils 200 Litern Inhalt angeliefert. Einmal stürzte eine Ladung Fässer vom Transporffahrzeug. Ein Teil davon platzte auf. Das kontaminierte Material hatte eine Radioaktivität von maximal 8000 Becquerel Cs-137/kg. Er war noch nicht einmal schwachaktiv, weil damals die Untergrenze für schwachaktiven Abfall bei 10000 Becquerel/kg lag. Heute liegt sie bei 1000 Becquerel/kg. Seinerzeit brauchte die Asse GmbH keine Genehmigung, um das Unfallmaterial in 1000 Meter Tiefe beim Wiederauffüllen der Forschungsstrecken zu verfüllen. 

D "Asse- ein Atomdesaster" – Falsch!

Die Kaverne mi t dem höchsten Dosiswert wurde genau beobachtet. Eine Schautafel zeigt den Verlauf ihrer Dosiswerte in den vergangenen Jahrzehnten. Sie nahmen erst jahrelang stark ab. Danach fielen sie viele Jahre linear ab und waren damit für die Zukunft voraus berechenbar. Deshalb wurden die Messungen eingestellt. Eine andere Kaverne wurde nur teilverfüllt und durch ein Eisengitter gesichert, damit Besucher noch etwas sehen und eigene Messungen machen können. Einmal hat ein Besucher mit seinem eigenen hochempfindlichen Geigerzähler tatsächlich vor dem Eisengitter erhöhte radioaktive Strahlung gemessen. 

Es zeigte sich aber, dass die Strahlung von Kobaltspuren (Co-60) im Eisengitter stammte. Hinter dem Gitter war nur die extrem schwache Strahlung (des K-40) vom Füllmaterial zu messen. Bezüglich der Grenzwerte sollte man wissen: Der deutsche Grenzwert für Milch mit der wissenschaftlichen Bewertung "absolut unbedenklich" ist 500 Becquerel Cs-137/l. Rheumapatienten im Wannenbad in Bad Schlema legen sich in Badewasser mit 2000 Becquerel Ra-222/l. Demgegenüber sind 8000 Becquerel Cs-137/kg Salzmasse noch nicht einmal radiotherapeutisch nutzbar, weil niemand einfach so ein paar Gramm Salz mit dem Löffel essen würde. Übrigens, kann jedermann, Kleinkinder und Schwangere ausgenommen, nach Anmeldung bei "Info Asse" in das Bergwerk einfahren, seine eigenen Messgeräte mitnehmen und sich vor Ort kundig machen. Um mit den Worten von Jacques Delors, französischer Sozialist und dreifacher Präsident der Europäischen Union, zu enden: "Angstmachen ist ein Verbrechen an der Demokratie." 

Dr. Gerhard Stehlik EIKE

Lesen Sie seinen ausführlichen Bericht im Anhang und bilden sich selbst eine Meinung

*Röttgen: Rückholung von Asse-Fässern kostet 3,7 Milliarden

Berlin — Die Kosten für die Rückholung der radioaktiven Abfälle aus dem maroden und einsturzgefährdete Atomendlager Asse werden derzeit auf 3,7 Milliarden Euro geschätzt. Das sagte Bundesumweltminister Norbert Röttgen (CDU) im Umweltausschuss in Berlin. Röttgen sagte demnach, dass aufgrund der Bewertung der Langzeitsicherheit die "Rückholung der Abfälle" momentan als "beste Lösung" eingestuft worden sei. Es gebe aber noch keine endgültige Entscheidung. Röttgen verwies auch auf eine mögliche Kostenbeteiligung der Energieversorgungsunternehmen. Es gebe jedoch keine Rechtsgrundlage für eine Haftung, sagte er.

Nach Ansicht des Bundesamts für Strahlenschutz (BfS) soll das Lager in Niedersachsen möglichst schnell geräumt werden. Die Rückholung der Abfälle soll innerhalb von zehn Jahren erfolgen. Als Betreiber der Asse hatte das BfS in den vergangenen Monaten geprüft, wie das Problem mit dem Atommülllager bei Wolfenbüttel am besten zu lösen ist. Dort lagern rund 126.000 Fässer mit leicht- und mittelstark strahlendem Atommüll. Dabei war auch untersucht worden, ob die Fässer an ihrem Standort in 500 bis 700 Meter Tiefe sicher einbetoniert werden könnten oder ob eine Umlagerung in tiefere Schichten um tausend Meter eine Langzeitsicherheit gewährleisten würde.

Die Fässer waren zwischen 1967 und 1978 in das frühere Salzbergwerk Asse gebracht worden. Seit 1988 läuft Wasser in die Anlage. Die Behörde kann nach eigenen Angaben nicht ausschließen, dass sich die Menge so steigert, dass die Grube überflutet wird. Zudem ist die Stabilität der Schachtanlage beeinträchtigt.

Related Files




ClimateGate 21: Der IPCC-Skandal – Der Damm bricht!

Glaubwürdigkeit der Klimawissenschaft wird immer mehr in Frage gestellt

So war ziemlich sicher auch die im Zuge von Klimagate verlorene Glaubwürdigkeit der Klimaforschung ein Grund dafür, dass Journalisten das Bedürfnis hatten, kritischen Kommentaren,die bislang meist nur in Internetblogs zu lesen waren, etwas genauer auf den Grund zu gehen. Als Anfang November letzten Jahres Indische Wissenschaftler das IPCC beschuldigt hatten, bei den Vorhersagen zum Glescherschwund massiv zu übertreiben (wir berichteten), hielt man das noch für eine Außenseitenmeinung und ignorierte diese dementsprechend. Jetzt, nach Klimagate, sieht die Sache anders aus.

Wird Pachauris Kopf als erstes rollen?

Damals konnte der IPCC-Vorsitzende Rajendra Pachauri die Sache noch damit abtun, dass er seinen indischen Kollegen “extreme Arroganz” vorwarf und auf die überragende wissenschaftliche Expertise des IPCC verwies. Heute sieht es mehr danach aus, dass Pachauris Kopf der erste sein wird, der als Folge der IPCC-Affäre rollen wird (auch hier). Wobei vor allemPachauris finanzielle Verstrickungen und Interessenkonflikte immer mehr in den Vordergrund rücken.

Und heute, nach Klimagate, zeigen auch die Medien plötzlich ein bisher ungekanntes Interesse an den fragwürdigen Praktiken des IPCC. So staunten einige Spiegel Leser nicht schlecht, als sie heute morgen die aktuelle Ausgabe aufschlugen. Dort stellte Autor Gerald Traufetter ein “Schmelzendes Vertrauen“  in den Weltklimarat fest und auf SpiegelOnline wurde dann auch zur Rettung des Weltklimarates aufgerufen.Und selbst mein Haussender, der WDR, rückte auf einmal merklich von seiner bisher kritiklosen IPCC-Gläubigkeit ab. Nachdem letzte Woche noch sehr zarte kritische Worte zu vernehmen waren, wurde der Ton heute schon deutlicher.

Noch etwas näher am Geschehen war die Welt, die letzte Woche vermutete, dass der Bericht des Weltklimarates noch weit mehr Fehler enthält, als der bis dato bekannt gewordene “Zahlendreher” bei der Gletscherschmelze im Himalaja. Und so stellte sich am Wochenende zunächst heraus, dass der vermeintliche Flüchtigkeitsfehler dem IPCC sehr wohl bekannt war, man aber aus dramaturgischen Gründen entschied, die unbelegbaren Behauptungen beizubehalten (auch hier)

IPCC sieht den WWF als wissenschaftliche Quelle an

Und es dauerte auch nicht lange, bis weiter Ungereimtheiten im IPCC-Bericht gefunden wurden. Zusammenhänge zwischen dem Klimawandel und Naturkatastrophen beruhten auf zweifelhaften Studien, die Schäden durch Extremwetterereignisse wurden viel zu hoch angesetzt, und entgegen der ständigen Beteuerungen des IPCC basiert deren Report nicht ausschließlich auf wissenschaftlichen Veröffentlichungen mit entsprechender Begutachtung. Die kanadische Journalistin Donna Laframboise hat nach eigenem Bekunden nur wenige Stunden gebraucht, um eine beeindruckende Liste von im IPCC Bericht zitierten Studien zu erstellen, die nicht wissenschaftliche Ergebnisse, sondern eher die Meinung einer dem umweltpolitischen Kampagnenorganisation widerspiegeln.

  • Allianz and World Wildlife Fund, 2006: Climate change and the financial sector: an agenda for action, 59 pp. [Accessed 03.05.07: http://www.wwf.org.uk/ filelibrary/pdf/allianz_rep_0605.pdf]
  • Austin, G., A. Williams, G. Morris, R. Spalding-Feche, and R. Worthington, 2003: Employment potential of renewable energy in South Africa. Earthlife Africa, Johannesburg and World Wildlife Fund (WWF), Denmark, November, 104 pp.
  • Baker, T., 2005: Vulnerability Assessment of the North-East Atlantic Shelf Marine Ecoregion to Climate Change, Workshop Project Report, WWF, Godalming, Surrey, 79 pp.
  • Coleman, T., O. Hoegh-Guldberg, D. Karoly, I. Lowe, T. McMichael, C.D. Mitchell, G.I. Pearman, P. Scaife and J. Reynolds, 2004: Climate Change: Solutions for Australia. Australian Climate Group, 35 pp. http://www.wwf.org.au/ publications/acg_solutions.pdf
  • Dlugolecki, A. and S. Lafeld, 2005: Climate change – agenda for action: the financial sector’s perspective. Allianz Group and WWF, Munich [may be the same document as "Allianz" above, except that one is dated 2006 and the other 2005]
  • Fritsche, U.R., K. Hünecke, A. Hermann, F. Schulze, and K. Wiegmann, 2006: Sustainability standards for bioenergy. Öko-Institut e.V., Darmstadt, WWF Germany, Frankfurt am Main, November
  • Giannakopoulos, C., M. Bindi, M. Moriondo, P. LeSager and T. Tin, 2005: Climate Change Impacts in the Mediterranean Resulting from a 2oC Global Temperature Rise. WWF report, Gland Switzerland. Accessed 01.10.2006 at http://assets.panda.org/downloads/medreportfinal8july05.pdf.
  • Hansen, L.J., J.L. Biringer and J.R. Hoffmann, 2003: Buying Time: A User’s Manual for Building Resistance and Resilience to Climate Change in Natural Systems. WWF Climate Change Program, Berlin, 246 pp.
  • http://www.panda.org/about_wwf/what_we_do/climate_change/our_solutions/business_industry/climate_savers/ index.cfm
  • Lechtenbohmer, S., V. Grimm, D. Mitze, S. Thomas, M. Wissner, 2005: Target 2020: Policies and measures to reduce greenhouse gas emissions in the EU. WWF European Policy Office, Wuppertal
  • Malcolm, J.R., C. Liu, L. Miller, T. Allnut and L. Hansen, Eds., 2002a: Habitats at Risk: Global Warming and Species Loss in Globally Significant Terrestrial Ecosystems. WWF World Wide Fund for Nature, Gland, 40 pp.
  • Rowell, A. and P.F. Moore, 2000: Global Review of Forest Fires. WWF/IUCN, Gland, Switzerland, 66 pp. http://www.iucn.org/themes/fcp/publications /files/global_review_forest_fires.pdf
  • WWF, 2004: Deforestation threatens the cradle of reef diversity. World Wide Fund for Nature, 2 December 2004. http://www.wwf.org/
  • WWF, 2004: Living Planet Report 2004. WWF- World Wide Fund for Nature (formerly World Wildlife Fund), Gland, Switzerland, 44 pp.
  • WWF (World Wildlife Fund), 2005: An overview of glaciers, glacier retreat, and subsequent impacts in Nepal, India and China. World Wildlife Fund, Nepal Programme, 79 pp.
  • Zarsky, L. and K. Gallagher, 2003: Searching for the Holy Grail? Making FDI Work for Sustainable Development. Analytical Paper, World Wildlife Fund (WWF), Switzerland

Und als besondere Schmankerl fand Laframboise noch zwei Arbeiten, die in den klimawissenschaftlich sicher äußerst bedeutsamen Magazinen Leisure (Freizeit) und Event Management publiziert wurden.

  • Jones, B. and D. Scott, 2007: Implications of climate change to Ontario’s provincial parks. Leisure, (in press)
  • Jones, B., D. Scott and H. Abi Khaled, 2006: Implications of climate change for outdoor event planning: a case study of three special events in Canada’s National Capital region. Event Management, 10, 63-76

Und hier noch von Greenpeace initiierte Studien:

GREENPEACE-GENERATED LITERATURE CITED BY THE 2007 NOBEL-WINNING IPCC REPORT

* Aringhoff, R., C. Aubrey, G. Brakmann, and S. Teske, 2003: Solar thermal power 2020, Greenpeace International/European Solar Thermal Power Industry Association, Netherlands
* ESTIA, 2004: Exploiting the heat from the sun to combat climate change. European Solar Thermal Industry Association and Greenpeace, Solar Thermal Power 2020, UK
* Greenpeace, 2004:http://www.greenpeace.org.ar/cop10ing/SolarGeneration.pdf accessed 05/06/07
* Greenpeace, 2006: Solar generation. K. McDonald (ed.), Greenpeace International, Amsterdam
* GWEC, 2006: Global wind energy outlook. Global Wind Energy Council, Bruxelles and Greenpeace, Amsterdam, September, 56 pp., accessed 05/06/07
* Hoegh-Guldberg, O., H. Hoegh-Guldberg, H. Cesar and A. Timmerman, 2000: Pacific in peril: biological, economic and social impacts of climate change on Pacific coral reefs. Greenpeace, 72 pp.
* Lazarus, M., L. Greber, J. Hall, C. Bartels, S. Bernow, E. Hansen, P. Raskin, and D. Von Hippel, 1993: Towards a fossil free energy future: the next energy transition. Stockholm Environment Institute, Boston Center, Boston. Greenpeace International, Amsterdam.

* Wind Force 12, 2005: Global Wind Energy Council and Greenpeace,http://www.gwec.net/index.php?id=8, accessed 03/07/07

Kritik am IPCC reißt nicht ab

So sieht sie also aus, die Datenbasis für den Zustandsbericht unserer Welt, erstellt von den 3000 besten (oder vielleicht nur bestbezahlten) Wissenschaftlern, die der Planet je hervorgebracht hat.  Und immer neue Fragen rund um das IPCC tauchen auf. So wurde als letztes bekannt gegeben, dass auch die Aussagen des Weltklimarates bezüglich der Gefahr des Klimawandels für den Regenwald keine vernünftige Wissenschaftliche Basis zu haben scheinen.  Nach Klimagate, Pachaurigate und Gletschergate kommt nun Amazonasgate.

Wenn man bedenkt, dass aufgrund der Ergebnisse dieses Reports politische Entscheidungen getroffen werden, die das Verschieben von tausenden Milliarden Euro beinhalten und letztlich zu einem totalen Umbau unseres Wirtschaftssystems führen sollen, dann kann einem nur Angst und Bange werden.

Von Rudolf Kipp EIKE zuerst erschienen bei Science Sceptical

Die Potsdamer vom PIK kommentieren das so::

Der Klimawandel ist ein dramatisches, aber lösbares Problem. Seine Bewältigung ist eine Feuertaufe für die im Entstehen begriffene Weltgesellschaft.“
Stefan Rahmstorf, Hans-Joachim Schellnhuber

Stefan Rahmstorf / Hans J. Schellnhuber, Der Klimawandel 
Ein Buch von 144 Seiten, mit dem Werbetext:

Zwei renommierte Klimaforscher geben einen kompakten und verständlichen Überblick über den derzeitigen Stand unseres Wissens und zeigen Lösungswege auf. »

mit Dank an Krischna Gans für dies Fundstücke

ÄHNLICHE BEITRÄGE (BETA):




Gletscherrückgang in den Alpen – Außergewöhnliche Bedrohung oder natürliche Schwankung?

Wer kennt sie nicht, die Meldungen und Hiobsbotschaften über die alpinen Gletscherrückgänge, wodurch ganze Ökosysteme vom Untergang bedroht wären, die Wasserversorgung von abertausenden von Menschen in Frage gestellt wird und dem Touristikzweig der Wirtschaft, den Garaus machen würde. Meist wird als Vergleich des Gletscherrückgangs die Gletscherausdehnung von 1850, oder 1970 herangezogen (wenn, wie bei den Himalaya-Gletschern traurige Gewissheit wurde, nicht gänzlich schlampig gearbeitet wird). Dies nicht ohne Grund. 1850 lag am Ende der kältesten Epoche der letzten 2.000 Jahre, die in der Wissenschaft unter dem Namen “Kleine Eiszeit“ bekannt ist. Sie begann im 15. Jahrhundert und dauerte bis zur Mitte des 19. Jahrhunderts. Für unser kulturelles Leben hat sie eine Vielzahl von Highlights in der Dichtung (Fallersleben), Malerei (Bruegel) und Musik hervorgebracht. So verdankt die Außergewöhnlichkeit der Stradivarigeige der “Kleinen Eiszeit“ ihre Existenz. Aufgrund der kalten Jahreszeiten hatte das Holz eine andere Wachstumscharakteristik, was ihm andere Eigenschaften verlieh und den Musikinstrumenten ihre Einzigartigkeit gab. Da heute dieses Holz nicht mehr in der gleichen Art wächst, lässt sich eine Stradivarigeige auch nicht nachbauen.

Die Abbildung 1 zeigt exemplarisch zwei Gemälde, in denen die Künstler die Kleine Eiszeit festhielten.

 

"Winterlandschaft", Pieter Bruegel der Ältere 1565 und rechts, A. Hondius, Thames-1677, London Museum

Zurück zur Gegenwart, die folgende Abbildung zeigt den alpinen Gletscherrückgang, bezogen auf die Vergleichsjahre 1850 und 1970. Es ist schon bemerkenswert, mit welchen Tricks vorgegangen wird, um eine überproportionale Gletscherschmelze zu belegen. Wie bereits geschildert, lag 1850 maximale Eisentwicklung für die letzten Jahrtausende vor und auch 1970 lag in einer Kaltphase mit ausgiebiger Gletscherentwicklung, wie die Abbildung 3 belegt. Die Älteren unserer Leser kennen noch aus den 1970-Jahren den wissenschaftlichen und politischen Wirbel um die anstehende drohende Eiszeit. Sie haben richtig gehört, damals glaubte Politik, Wissenschaft und Medien (http://www.mcculloughsite.net/stingray/photos/the_cooling_world_newsweek_2-thumb-500×646.jpg) nicht an eine drohende Erwärmung, sondern an eine drohende Eiszeit für die nächsten Jahrzehnte und teilweise die selben Wissenschaftler, die heute die Tageszeitungen mit ihren Horrorszenarien schmücken, warnten damals vor der drohenden Eiszeit.

 

Die Abbildung 2 zeigt den prozentualen alpinen Gletscherrückgang für die Jahre 1970 und 2000, bezogen auf das Jahr 1850, Quelle: Geographisches Institut der Universität Zürich, Dr. Michael Zemp, 2006.

Anmerkung:

Vielfach wird angenommen, dass die heutigen Gletscher der Alpen oder Skandinaviens Überbleibsel der letzten Eiszeit sind. Dies ist aber falsch. Europa war auf dem Höhepunkt der Nacheiszeit (Holozän) vor ca. 7.000 Jahren völlig eisfrei. Die meisten europäischen Gletscher sind erst danach entstanden und somit ziemlich jung und höchstens 6.000 Jahre alt. Ihr Umfang schwankte in den letzten Jahrtausenden zudem stark.

Und dazu die Temperaturentwicklung der letzten 1.100 Jahre.

Die Abbildung 3 zeigt den Temperaturverlauf der letzten 1.100 Jahre, ergänzt nach Sunday Telegraph (Lord Christopher Monckton) vom 05.11.2006.

Die Schwankungen der Temperatur lassen erwarten, dass auch die alpine Gletscherentwicklung zyklischen, natürlichen Schwankungen unterliegt und genau dies, hat der Gletscherforscher, Prof. Slupetzky (Uni Salzburg) durch seine Untersuchungen der österreichischen Gletscher herausgefunden, was die Abbildung 4 belegt. Zu dessen Untersuchungsergebnis habe ich Ihnen die zyklischen Schwankungen der AMO (Atlantic Multidecadal Oscillation), einer Schwankung der atlantischen Oberflächentemperaturen, durch die unser Wetter in Mitteleuropa maßgeblich bestimmt wird, weil sie u.a. die Verdunstungsrate über dem Atlantik und den Energietransport bestimmt, aufgetragen, sowie die atmosphärische CO2-Entwicklung nach Mauna Loa.

Die Abbildung 4 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß*) folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

*) Bevor hier anhand einzelner Gletscher eingewendet wird, diese wären seit 100 Jahren kontinuierlich geschrumpft – alpine Gletscher werden in vier Kategorien eingeteilt:

A: >10 km

B: 5 bis <10 km

C: 1 bis  5 km

D < 1km

Die Gletscher Kategorie D sind relativ stationär. Es gibt zwar Jahre, in denen sie Verluste erleiden, sie stoßen aber immer wieder vor und behalten ihre Größe bei. Würden die IPCC-Vorhersagen zutreffen, müsste sie zuerst verschwinden. Es ist deshalb auch unsinnig, von einem alpinen Gletschersterben zu sprechen. Dieses findet nicht statt.

Gletscher der Kategorie A, wie z.B. der sehr gut untersuchte Großer Aletsch in der Schweiz, folgen auf Grund Ihrer Größen- also Massenträgheit zeitverzögert Warm- bzw. Kaltphasen („glätten“ sozusagen Dekaden-Warm-, bzw. Kaltphasen) und zeigen somit seit Beginn der wärmeren Periode ab dem Ende der Kleinen Eiszeit um 1850 eine schrumpfende Tendenz, während die massenärmeren Gletscher Temperaturentwicklungen schneller folgen. Aber auch bei Gletschern der Kategorie A ist der Gletscherschwund im 20. Jahrhundert nichts Außergewöhnliches, wie die Untersuchungen von Wilfried Haeberli und Hanspeter Holzhauser (Uni Zürich) zeigen.

Die Abbildung 5 zeigt die Gletscherentwicklung Großer Aletsch für die letzten 2.000 Jahre. Erklärung: Rote Balken stehen für Rückzug und blaue für Vorstoß. Unten = Rückzug, Oben = Vorstoß. Die rechte Skala zeigt die Gletscherbewegung in Metern und die linke die zugehörigen Jahreszahlen des aktuellen Gletscherrückgangs. Geglättet wurde über 50 Jahre. Deutlich ist zu erkennen, dass es Zyklen gibt, in denen der Gletscher wächst und schrumpft. So gab es in den letzten 2.000 Jahren drei in etwa gleich starke Minima: Heute, im 8. und im 1. Jahrhundert (dieses gar noch stärker als heute). Der heutige Rückzug begann um 1850.

Zurück zur Abbildung 4

Da die AMO in direkter Weise von der Sonnenaktivität abhängt, ist es nicht verwunderlich, dass die alpine Gletscherentwicklung der Intensität der Sonneneinstrahlung folgt. Zu diesem Ergebnis kamen Forscher der ETH Zürich, die die Arbeiten von Prof. Slupetzky, 2005 untermauern (http://www.ethlife.ethz.ch/archive_articles/091214_gletscherschwund_su). “Rasante Gletscherschmelze in den 1940ern“. Die Untersuchungen zeigen, dass in den 1940-Jahren die Schweizer Gletscher stärker schmolzen, als dies gegenwärtig der Fall ist. Als Datenquelle dienten den Forschern die seit fast 100 Jahren (die Messungen begannen im Jahr 1914) vorliegenden durchgehenden Messungen an den Gletschern, Claridenfirn, Großer Aletsch und dem Silvretta.

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher auf die geringere Aerosolkonzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höherer Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, die die vorherige Abbildung zeigt.

Die ETH-Forscher ermittelten eine um 18 W/m2 höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von ca. 1,5 W/m2, welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, ganz enorm ist. Die erhöhte Sonneneinstrahlung in den 1940-Jahren deckt sich mit den Messungen der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ und in Stockholm. Es war demnach in weiteren Teilen Europas eine erhöhte Solarstrahlung zu messen.

 

Die Abbildung 6 (http://wattsupwiththat.com/2009/06/) zeigt die bodennahe solare Einstrahlung in Stockholm seit 1923. Die blaue Linie die geglättete 5-Jahreskurve.

Die Abbildung 7 zeigt die Änderung der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ seit 1940. Der Rückgang ist verbunden mit der Phase des Global Cooling und der Wiederanstieg in den 1980-Jahren mit dem Anstieg der bodennahen Temperaturen. Seit 1980, dem Zeitpunkt, als die Temperaturen zu steigen begannen, ist demnach ein 10%iger-Anstieg der Globalstrahlung zu verzeichnen.

Anhand der Abbildung 8 möchte ich Ihnen die solare Aktivität im Vergleichzeitraum, sowie die Durchlässigkeit der Atmosphäre zeigen.

 

Die Abbildung 8 links, Quelle: British Geological Survey, zeigt die magnetische- und Fleckenaktivität der Sonne im Zeitraum von 1867 – 2007. Im Zeitraum von 1930 – 1960 (grün hinterlegt) ist ein deutlicher Anstieg in der magnetischen, als auch in der Fleckenaktivität der Sonne erkennbar, was mit dem Zeitraum der positiven AMO und des mit ihr in Verbindung stehenden Gletscherrückgangs (Abbildung 4, übereinstimmt. Die Abbildung 8 rechts zeigt den SO2-Aerosolgehalt in der Atmosphäre im Zeitraum von 1880 bis 2000, Quelle: David Ian Stern, Australian National University, Centre for Resource and Environmental Studies.

Für die atmosphärische Aerosolentwicklung ist der atmosphärische Schwefeldioxid-, bzw. Sulfat-Gehalt (bildet sich über Wasser und SO2) wesentlich. Der unter dem Begriff “Global Cooling“ bekannte Temperaturrückgang durch zusätzliche Partikel in der Atmosphäre basiert auf SO2 und Rußpartikel. Den Einfluss von SO2 auf die globalen Temperaturen zeigen die Auswirkungen des Vulkanausbruchs Pinatubo in 1991, durch den große Mengen SO2 in die Atmosphäre gelangten, wodurch die globalen Temperaturen für 2 Jahre um ca. 0,6°C zurückgingen.

In der Abbildung 8 rechts ist darüber hinaus die Epoche des Global Cooling (rot umrundet) festgehalten – Anstieg der Aerosolpartikel (vorrangig SO2 und Rußpartikel) mit deutlich zurückgehender Sonnenaktivität – einem schwachen solaren 20. Zyklus. Auch in der Phase des Global Cooling, die Prof. Stern in die Zeitspanne von 1940 – 1980 definierte, wurde der Abkühlung durch die beiden starken solaren Zyklen 18 und 19, gegen Ende der 1940- und 1950-Jahre gegen gewirkt, wie die Abbildung 9 zeigt.

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Tempe

raturkurve bis zum Ende des 20. Jahrhunderts, nach den Daten von Briffa, in der archivierten und publizierten (abgeschnittenen) ­Version (schwarz) und der komplette Datensatz (rot). Es ist die Temperaturreihe, die durch die Manipulationen von Jones (Climategate) Berühmtheit erlangte. Hier in der ungekürzten Fassung. Man erkennt deutlich den Temperaturrückgang, der versteckt werden sollte, Quelle: Rudolf Kipp – EIKE. Deutlich ist erkennbar, dass die starken solaren Zyklen 18 und 19 (blaue Linien, vgl. mit Abbildung 7 links) einen Temperaturpeak nach oben auslösten und dem um ca. 1940 beginnenden Rückgang der Temperaturen entgegenwirkten.

Auch hier, wie beim Temperaturanstieg mit der verbundenen Gletscherschmelze, setzte der Temperaturrückgang erst in Verbindung mit der Sonnenaktivität ein und zwar mit der deutlich nachlassenden Sonnenaktivität im 20. Sonnenzyklus, als in den 1970-Jahren das Gespenst der drohenden Eiszeit umherging und dieselben Forscher, die seinerzeit grandios danebenlagen, wie z.B. Prof. Stephen Schneider (Schneider S. & Rasool S., "Atmospheric Carbon Dioxide and Aerosols – Effects of Large Increases on Global Climate", Science, vol.173, 9 July 1971, p.138-141), heute einer der einflussreichsten IPCC-Leadautoren, die passend zur solaren Temperaturentwicklung, wieder die abenteuerlichsten Hypothesen aufstellen, diesmal in Verbindung mit anthropogenen Treibhausgasen, die eine Erwärmung herbeiführen würden. Seinerzeit gingen die Herren der These nach, es gäbe eine globale Abkühlung – es drohe eine kommende Eiszeit!

Erst als die solare Aktivität in den 1960-Jahren zurückging und in den 1970-Jahren niedrig blieb, „rauschten“ die Temperaturen deutlich in den Keller, um mit Beginn der solaren Aktivität um 1980 (hoher 21. Sonnenzyklus), erneut anzusteigen. Wie wir heute wissen, dauerte der Temperaturanstieg bis ca. 2003, synchron zur solaren Aktivität. In 2003 hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum (http://wetterjournal.wordpress.com/2009/07/14/). Die Presse war seinerzeit voll mit Meldungen über sog. Hitzetote.

Einige werden einwenden, dass anhand einschlägiger Sonnenaktivitätskurven die Sonnenaktivität in den letzten 30 Jahren nicht zugenommen hätte. Dies ist jedoch falsch. So meldete z.B. die Max Planck-Gesellschaft in 2004 “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute.“ Für die solare Aktivität wird international meist der sog. TSI (Total Solar Irradiance) herangezogen (Abbildung 10).

Die Abbildung 10 zeigt den TSI im Zeitraum 1979 bis Januar 2010 (Quelle: http://www.pmodwrc.ch/pmod.php?topic=tsi/composite/SolarConstant). In der Zeile oben sind die verschiedenen Messsysteme, mit denen der TSI aufgenommen wird (wurde) genannt. So steht z.B. ACRIM für Active Cavity Radiometer Irradiance Monitor. Es ist zu sehen, dass im Messbereich des TSI keine Aktivitätssteigerung der Sonne im Betrachtungszeitraum erkennbar ist, wohl aber in der Abbildung 11 und der Abbildung 8 links.

Beim TSI handelt es sich denn auch um eine Mogelpackung, bzw. um eine irreführende Bezeichnung, da das Messsystem des Satelliten, mit dem der TSI aufgenommen wird, lediglich den Wellenlängenbereich des solaren Energiespektrums von 200 nm – 2.000 nm, also UVB – Infrarot aufnimmt (dafür sensibilisiert ist). Von “Tatal“ kann also keine Rede sein! Der überwiegende spektrale Sonnenanteil wird gar nicht aufgezeichnet, insbesondere nicht der Anteil, der zwischen solarem Minimum und solarem Maximum am meisten variiert. So variiert die solare Aktivität im sichtbarem Bereich lediglich um <1%, im UVB-Bereich (205 nm) um ca. 7%, bei 150 nm bereits um 15%, im EVU (<150 nm) sogar um 35% und im Röntgenbereich gar um das 100-fache. Über die kosmische Strahlung*) (Svensmark-Effekt) und die Stratosphäre, übt die Sonne jedoch auch in dem nicht aufgezeichneten Energiebereich indirekt, bzw. direkt Einfluss auf das irdische Wettergeschehen und somit auf das Klima.

*) Die solare Aktivität im Hauptsonnenzyklus, dem de Vries/Suess-Zyklus lässt sich denn auch nicht im TSI erkennen, sondern am 14C-Gehalt der Pflanzen (Abbildung 11).

 

Die Abbildung 11 zeigt über die letzten 1.200 Jahre den de Vries/Suess-Zyklus und die mittelalterliche Warmperiode, sowie die Kleine Eiszeit mit dem Wolf- Spörer- und Maunder-Minimum, Quelle: (http://www.co2science.org/articles/V11/N23/EDIT.php).

In der Abbildung 12 habe ich Ihnen die Maxima im de Vries/Suess-Zyklus zu der aus 14C gewonnenen Proxy-Temperaturkurve eingetragen.

Die Abbildung 12 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden fallen jeweils mit dem Maximum des de Vries/Suess-Zyklus zusammen und die Kälteperioden, wie z.B. das Spörer Minimum mit dessen Minimum.

Nicht nur die Gletscherentwicklung der Alpen, sondern auch die arktische Eisbedeckung wird durch den Hauptsonnenzyklus, den de Vries/Suess-Zyklus moderiert, wie die Abbildung 13 zeigt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 13, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries/Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries/Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Hohe solare Aktivität, verbunden mit geringer Aerosolbildung (klare Luft) sind demnach die Ursachen für den starken Gletscherrückgang in den 1940-Jahren. Da die Gletscher im Zeitraum davor wuchsen und die Luft noch klarer war, bleibt für den Gletscherrückgang in den 1940-Jahren einzig (in Bezug der davor herrschenden Gletscherausdehnung) die starke solare Aktivität übrig, sowie wir dies bis zu den letzten Jahren ebenfalls hatten.

Wie bereits eingangs erwähnt, waren die Alpen in früheren Jahren weitgehend eisfrei. Dies belegen Holzfunde in heutigen Gletscherregionen der Alpen von Dr. Christian Schlüchter. Dr. Schlüchter ist Professor für Quartär- und Umweltgeologie an der Universität Bern und Lehrbeauftragter der ETH Zürich.

Er fand in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moors. Baumreste wurden einem Arvenstamm (alpenländischer Nadelbaum) zugeordnet und auf 4.920 ± 60 Jahre vor heute datiert. Die Moorreste datieren auf 2.100 ± 50 Jahre vor heute. Die Fundstücke sind außergewöhnlich, da es Bäume und insbesondere ein Moor nur an Stellen gegeben haben kann, wo kein dauerhaftes Eis vorhanden ist und die Baumgrenze deutlich höher lag als heute. Aus den vorgenommenen Datierungen ergab sich, dass in den letzten Jahrtausenden etwas mehr als 50% der Zeitspanne die Gletscher deutlich kürzer als waren als heute.

Prof. Schlüchter: “Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.“ Dies erklärt auch, warum in den sonst sehr detaillierten Beschreibungen der römischen Chronisten kaum ein Wort über die Gletscher zu finden ist. Als Hannibal 218 v.Chr. mit seinen Kriegselefanten (im Winter!!) die Alpen überquerte und ins römische Kernland einfiel, waren die Alpenpässe weitgehend eisfrei. Es war die Zeit des römischen Klimaoptimums. Die Abbildung 14 links zeigt, wie es nach Rekonstruktionen seinerzeit dort ausgesehen hat.

Die Abbildung 14 links zeigt den Sustenpass (Passhöhe 2.224 ü. d. M.), wie er nach den Untersuchungen von Schlüchter zur Römerzeit vor etwa 2.000 Jahren ausgesehen hat. Der Steigletscher hat sich auf die Höhe der Tierberglihütte (2.795 m) zurückgezogen, die Baumgrenze lag deutlich höher als heute. Quelle „Die Alpen“/ Zeichnung Atelier Thomas Richner nach Vorlage Christoph Schlüchter. Kopiert aus ETH-Zürich, Grüne Alpen statt ewiges Eis“, 14.02.2005 (http://archiv.ethlife.ethz.ch/articles/tages/gruenealpen.html). Die rechte Abbildung zeigt den Gletscher um 1993 und seine Ausdehnung 1856 (nach der “Kleinen Eiszeit“) und 1922.

Anhand der Abbildung 15 wird deutlich, dass die Torf- und Holzfunde mit der Temperaturentwicklung im Holozän (bezeichnet die Zeitspanne seit ca. 11.000 Jahren, kleine Abbildung) synchron verlaufen und es Zeiten gab, in denen es wesentlich wärmer war als heute, Quelle: (http://klimakatastrophe.files.wordpress.com/2008/09/gletscherfunde2.jpg) nach Joerin et al. 2006 (Uni Bern).

Die beiden folgenden Bilder in der Abbildung 16 zeigen, wie ein Alpendorf im 19. Jahrhundert von sich ausbreitenden Eismassen begraben wird, dass Klima davor also zyklisch milder war (vgl. mit Abbildung 4), Quelle: ZDF, "Klima – Das Risiko", Joachim Bublath, 22.10.2003 (http://www.solarresearch.org/zdf_bublath_20031022.htm).

Zusammenfassend ist festzustellen, dass der heutige Gletscherrückgang in den Alpen nichts Außergewöhnliches darstellt und die Gletscherentwicklung zyklischen Phasen unterliegt, die von der Sonne gesteuert werden. Ein Einfluss von Treibhausgasen wie z.B. CO2 oder menschliche Einflüsse sind nicht vorhanden.

 Raimund Leistenschneider – EIKE

Related Files




ClimateGate 20: Auch Herr Schellnhuber wusste von nichts….

Video 3-Sat Zusammenfassung eines Interviews mit Prof. Dr. Schellnhuber z.T. Verschwinden der Himalya Gletscher. Aufgezeichnet von Solarkritik

Dabei spielt der deutsche Multi-Funktionär und politische Kader-Schmied Schellnhuber in IPCC- und Climategate-Kreisen eine herausragende Rolle. Sollte er tatsächlich nicht gemerkt haben, dass Hiobsbotschaften über das baldige Verschwinden der Himalaya-Gletscher auf einem reinen Gerücht basierten? Wenn das so sein sollte, so wirft das kein gutes Licht auf die Forschung, die da angeblich in Potsdam betrieben wird. Fest steht jedenfalls, dass Schellnhuber sich das Himalaya-Märchen begeistert zu eigen machte. Zitat: ”Wir sind in der Lage, mit Modellen zu erkennen, dass bei fortschreitender Erwärmung in 100 Jahren alle Himalaya-Gletscher verschwunden sein dürften.” *

Welche Modelle sollen das denn sein? Diese Berechnungen würde man jetzt mal gerne sehen. Wie sich inzwischen herausgestellt hat, ist es für Glaziologen auf den ersten Blick völlig ausgeschlossen, das so etwas passiert. Danke an den Kollegen Rolf Degen für den Hinweis auf das Zitat.

Aus ACHGUT von Dirk Maxeiner

* Diese Aussage unterstützt der forsche Forscher Schellnhuber kürzlich im Bayerischen Rundfunk (BR5) und schiebt dieses "katastrophale" Abschmelzen auf den Rußausstoss chinesischer Kohle-Kraftwerke. Siehe Audiodatei im Anhang

Was es mit den Fähigkeiten zu wissenschaftlicher Arbeit des Prof. Schellnhuber noch so auf sich hat sehen Sie hier!

Lesen Sie auch weitere Details zum Werdegang der Himalya Gletscher Ente hier

Related Files




Ökostromnetz in der Nordsee – Innovation auf dem Strommarkt ?

Die Windleistungseinspeisung lag insgesamt im Jahr 2009 zwischen 70 MW und 22.000 MW;  d.h. im Schnitt bei 1.750 Volllaststunden. Da auch auf der Nordsee manchmal Flaute herrscht oder  bei Orkanböen die Anlagen aus Sicherheitsgründen außer Betrieb genommen werden müssen, muss  bei ungeminderter Versorgungssicherheit nahezu die gesamte Leistung durch konservative 

Kraftwerke abgesichert werden. Demnach sind für die unsteten Leistungen auf See zusätzlich  rd. 20 Kernkraftwerke oder 40 Kohle-/GUD-Kraftwerke oder 80 Gaskraftwerke oder einige hundert Biomassekraftwerke als Schattenkraftwerke in betriebsbereitem Zustand erforderlich. 

Dafür wird in der Nordsee gewühlt, um auf dem Meeresgrund und im Schutz der UNESCO  stehendem Wattenmeer für rd. 30 Mrd. Euro Kabel zu verlegen. Hier wird es aber komplizierter als  von den Politikern gedacht. Vor allem weil die Superleitungen mit der so genannten Hochspannungs -Gleichstromübertragungstechnik (HGÜ) arbeiten, werden aufwendige Umspannwerke benötigt, um die in Europa üblichen Wechselströme in die verschiedenen Spannungen umzuwandeln. Die Stromleitungen in den beteiligten Ländern haben auch unterschiedliche Frequenzen. Viel mehr werden neue Überlandleitungen benötigt, um die wachsenden Strommengen der Wind- Industrieanlagen in Norddeutschland in die großen Verbraucherzentren im Süden und Westen des Landes zu transportieren. 

2014 soll in England die staatliche Subventionierung auslaufen, schreibt die WiWo. Bleibt sie nicht erhalten, droht die Spannung aus dem Megaprojekt zu entweichen. Wird dann die Windkrafteuphorie nur noch eine Fußnote der europäischen Wirtschaftgeschichte sein ? 

Weder die Energiewirtschaft noch unsere Politiker sagen uns Verbrauchern, was das alles uns eines Tages kosten wird. Wir haben schon heute zu viel Strom und um ihn loszuwerden müssen wir draufzahlen. D.h. der Verbraucher muss jetzt schon einmal für die Erzeugung – und dann noch einmal für die Entsorgung der Überproduktion bezahlen. 

Ein Irrsinn ! Mit Innovation hat nicht speicherbare (Sonnen + Wind-) Energie nichts zu tun; hier wird der Verbraucher vorsätzlich und bewusst  „verschaukelt“. Aus gesellschaftspolitischer wie aus Wirtschaftspolitischer Sicht ist die schwarz/gelbe Regierung eher eine sozial/liberale Koalition. Der Wähler hat das nicht gewollt. 

VGL Verband für Gesundheits- & Landschaftsschutz e.V.




ClimateGate 19: Sind auch die Temperaturdaten der USA gefälscht?

Das Ergebnis seiner Analysen ist dann auch eindeutig nicht dazu geeignet, uns in Sicherheit zu wiegen. Ganz im Gegenteil. In der am letzten Donnerstag veröffentlichten Presseerklärung heißt es, dass 2009 das bisher zweitwärmste Jahr seit Beginn der Temperaturaufzeichnung sei. Wärmer wäre nur 2005 gewesen. Auch sei das vergangene Jahrzehnt das bislang wärmste seit Beginn der regelmäßigen Messungen.

GISS-Direktor Hansen will auch trotz der seit etwa 10 Jahren stagnierenden bis fallenden Globaltemperaturen nichts von einem Stoppen der Erderwärmung wissen. Schließlich genügt bereits ein einfacher statistischer Trick, um diese Phase aus den Daten verschwinden zu lassen:

“Wenn wir die Temperatur über 5 oder 10 Jahre mitteln, um die Variabilität zu minimieren, finden wir dass die globale Erwärmung unvermindert weitergeht.”

“When we average temperature over five or ten years to minimize that variability, we find global warming is continuing unabated.”

Wobei man erwähnen muss, dass die Analyse des GISS sich nicht mit denen anderer Institute deckt. So war das vergangene Jahr nach Daten des National Climate Data Centers (DCDC) das 5.-wärmste. Die Satellitenmessungen von UAH und RSS sahen 2009 nur auf Rang 6 beziehungsweise Rang 7. Daher mag man sich fragen, woher diese Unterschiede stammen, und wie verlässlich die Methoden zur Ermittlung der Globaltemperatur überhaupt sind.

Genau diese Frage haben sich in den USA ein Computerprogrammierer und ein zertifizierter Meteorologe auch gestellt. Über deren Ergebnisse berichtete der US-Wettermann John Coleman in seiner bemerkenswerten Sondersendung “Global Warming: The Other Side“. Sehen Sie hier den vierten Teil der Reportage mit deutschen Untertiteln:

Global Warming: The Other Side – Teil 4 from Science Skeptical on Vimeo.

Die Vorwürfe der beiden GISS-Kritiker, des Programmierers E. Michael Smith und des Meteorologen Josph D’Aleo, lassen sich in vier Punkten zusammenfassen.

  1. Die Computerprogramme zur Berechnung der Durchschnittstemperaturen wurden massiv verändert. Dadurch ist das Endergebnis nicht mehr der Durchschnitt von wirklichen Temperaturen an realen Orten. Stattdessen nutzen die Forscher Daten von Orten, die hunderte Kilometer entfernt sein können und wenden sie auf ein anderes Gebiet an.
  2. Die Anzahl der Messstationen ist dramatisch reduziert worden, von etwa 6000 bis in die späten 80er Jahre auf heute etwas mehr als 1000.
  3. Dabei sind vor allem solche Stationen eliminiert worden, die in kühleren Gegenden, in höheren Breiten oder höheren Höhen lagen, also solche, deren Temperatur niedriger ist.
  4. Die Temperaturen selbst wurden durch sogenannte Homogenisierung verändert, einem Prozess, der fast ausschließlich zu höheren Temperaturen zu führen scheint.

Joseph D’Aleo hat eine ausführliche Analyse der Ergebnisse seiner Studien zusammengestellt. Sie können sie auf seiner Homepage Icecap.us herunterladen. Weiters Details dazu bringt die kanadische National Post hier. Eine sehr guten Artikel über Klimagate von Joseph D’Aleo finden Sie hier.

In dem äußerst empfehlenswerten Blog von E. Michael Smith gibt es viele weiter Details zu den Methoden, mit denen die Nasa die Temperaturdaten auf Erwärmung trimmt.

In den deutschen Medien hat dieser Skandal bisher kaum stattgefunden. Lediglich beim immer gut und aktuell informierenden Dirk Maxeiner auf der Achse des Guten und im Zeit-Leserartikel-Blog von “Schneefan” wurde bisher darüber berichtet.

Die Ergebnisse der Studien von Smith und D’Aleo sind zu umfangreich, um sie hier in wenigen Worten hinreichend zu behandeln. Wir werden daher in den nächsten Tagen einen mehr detaillierten Artikel zu der Affäre um die Temperaturdaten der Nasa schreiben. Bis dahin möchten wir Ihnen die Empfehlung von US-Wettermann und Begründer des “Weather Chanel”, John Coleman, mit auf den Weg geben: :

“Wenn Sie eine Nachricht hören, dass herausgefunden wurde, dass ein bestimmter Monat oder eine Jahreszeit die wärmste in der Geschichte war,  oder dass fünf der wärmsten Jahre seit Beginn der Aufzeichnung im letzten Jahrzehnt lagen – glauben Sie es nicht.”

 Rudolf Kipp (zuerst erschienen in Science Sceptipal Blog)

Nachtrag: Gerade berichtet die Welt:

UMWELTPROGNOSEN

Weltklimarat gerät erneut ins Zwielicht

25. Januar 2010, 10:04 Uhr

Gerade erst musste der UN-Ausschuss peinliche Fehler bei der Prognose zum Abschmelzen der Himalaya-Gletscher eingestehen, da gerät er erneut in Erklärungsnot: Trotz wissenschaftlicher Zweifel hatte er bereits im Jahr 2007 behauptet, dass die steigenden Kosten durch Naturkatastrophen mit dem Klimawandel zusammenhängen. Details hier.…….

ÄHNLICHE BEITRÄGE (BETA):




ClimateGate 18: Die Probleme in den Modellen zur globalen Erwärmung!

So werden wir beispielsweise – obgleich es überzeugende Anzeichen dafür zu geben scheint – nicht von anpasserischen Politikern, sich selbst bedienenden Lobbyisten, fanatischen Umweltaktivisten und gierigen Wallstreet-Manipulatoren geführt. Das ist eine Illusion.

Doch es gibt einen noch stärkeren (aber kaum sichtbaren) Antreiber hinter dem Anschein. Dieser Unsichtbare ist der Computer-Programmierer. Und wie im Märchen vom „Zauberer von Oz“ soll niemand diesem wirklichen Schicksalslenker auf die Finger schauen.

Als Computer-Programmierer will ich hier alles über den „Zauberer“ ausplaudern. Auch wenn mich das vermutlich meine Mitgliedschaft im Club (auch als Physiker und Umweltaktivist) kosten wird.

Der erste Hinweis auf Probleme wird schon deutlich in der Wikipedia-Erklärung über Computer-Programmierer gegeben: 

Dieses Fach unterscheidet sich von vielen anderen technischen Berufen darin, daß Programmierer im allgemeinen weder Zulassungsprüfungen bestehen noch irgendwelche anderen standardisierten (oder amtlichen) Befähigungsnachweise erbringen müssen, um sich „Programmierer“ oder sogar „Software-Ingenieur“ nennen zu können.

Hmmm. 

Als Laie kann ich mir das nur so erklären, dass die ganze Computer-Programmiererei darin besteht, Annahmen zu treffen und diese in mathematische Gleichungen umzusetzen.

Die ganz große Frage lautet: Kann man wirklich komplexe Lagen aus der wirklichen Welt genau in Einsen und Nullen übersetzen? HAL [Anm. d. Ü.: die Computerstimme aus dem Film „Odyssee im Weltraum“] mag das glauben, doch höher verarbeitende Gehirne sagen Nein. Trotzdem wird es immer wieder mit sehr begrenztem Erfolg versucht. Schauen wir ein wenig genauer hin.

Fangen wir mit einem Beispiel an, wie Annahmen in einem Modell getroffen werden.

Ich habe ein Computer-Programm für Schuldeneintreiber geschrieben. Eine typischer Hergang war, dass dem Schuldner ein Termin für eine Zahlung genannt worden wäre und die Inkasso-Gesellschaft diese nicht rechtzeitig erhalten hätte. Welche Reaktion ist daraufhin angemessen?

In dieser Situation kontaktiert das Computer-Programm automatisch den Schuldner. (Man bedenke, dass es bei den Inkasso-Firmen Tausende von Schuldnern gibt und dass es aus Zeitgründen einfach unmöglich ist, durch persönliche Intervention jeden einzelnen Fall zu prüfen und zu verfolgen.)

Was soll also im Computerbrief an den Schuldner stehen? Nun, es hängt von den Annahmen des Computer-Programmierers ab.

Solche Situationen versucht der Programmierer auf mathematische Optionen zu vereinfachen.

Wie entscheidet der Programmierer (im Modell) über „Ja“ oder „Nein“? Also, da werden andere Hinweise benutzt (z. B. ob frühere Zahlungen rechtzeitig geleistet wurden), um eine statistische Wahrscheinlichkeit zu erzeugen. 

In einer komplexen Lage (z. B. Schuldeneintreibung, Klimawandel, Finanz-Derivate) kann leicht ein ganzes Hundert solcher Wahlmöglichkeiten entstehen, das zu behandeln ist.

Um die Implikationen zu verstehen, soll nur der Fall betrachtet werden, wo es zehn derartige Entscheidungspunkte gibt – jeder mit einer möglichen „Ja-“ oder „Nein-“ Entscheidung. Am Ende des Ablaufs stehen 210  (d. h. 1024) mögliche Antworten. Das bedeutet eine ganze Menge von möglichen Schlussfolgerungen.

Leider gibt es aber noch viel mehr Möglichkeiten! Die Annahme, dass diese Schuldner-Situation auf eine „Ja“ oder „Nein“-Antwort verdichtet werden könnte, trifft nicht zu. Denn es gibt viele weitere reale Lagen, die sich einem „Ja“ oder „Nein“ entziehen.

Zum Beispiel: Was ist, wenn der Schuldner niemals zu Anfang eine Nachricht erhalten hätte, dass die Zahlung zu dem Termin fällig war, den das Inkasso-Unternehmen überwachte? Oder: Was, wenn der Schuldner das Geld überwiesen hätte und die Zahlung fehlgeleitet wurde? Oder: Was, wenn der Schuldner die Zahlung an den ursprünglichen Gläubiger geleistet hätte, anstelle an das Inkasso-Unternehmen? Oder: Was, wenn der Schuldner das Geld rechtzeitig überwiesen und das Inkasso-Unternehmen fälschlicherweise die Gutschrift nicht rechtzeitig bewirkt hätte? Usw., usw.

In einem korrekten Computer-Modell müssen alle derartigen Lagen richtig behandelt werden (gesetzlich, zeitlich usw.). Erkennen Sie nun die Komplexität anhand dieses ganz einfachen Beispiels einer nicht fristgerechten Zahlung?

Aber da gibt es noch einen bisher nicht erwähnten weiteren wichtigen Faktor (jetzt schon Nr. 4).  Was ist, wenn der Schuldner nicht bezahlt hat, dies aber darauf zurückzuführen ist, dass sein Kind multiple Sklerose hat und er nicht krankenversichert ist? Wie schreibt ein Computer-Programmierer den Code für so abstrakte Vorstellungen wie „Fairness“? Anders gesagt, können „Einsen“ und „Nullen“ so angeordnet werden, dass sie Nicht-Anfassbares darstellen? Ich denke nein.

Daher steht unter dem Strich die Frage: Kann ein Computer-Programm überhaupt alle Möglichkeiten der realen Welt richtig behandeln – bereits schon in diesem einfachen Fall der Schuldeneintreibung? Die Antwort ist Nein.

Wir haben schon beachtliche Schwierigkeiten beim Übersetzen einer relativ einfachen Sache wie der Sprache – z. B. von griechischen biblischen Texten ins Englische. Wie viele Versionen der Bibel gibt es? Warum nicht nur eine?

Können wir möglicherweise hoffen, einen Vorgang zu übersetzen, der viel komplizierter als Wörter ist? Wir können es versuchen, aber die klare Antwort ist, dass beim Übersetzen jeder komplexen Lage (Schuldner, Energie-Leistung usw.) in mathematische Gleichungen und Computer-Code eine ganze Menge verloren geht.

Manche uninformierte Gruppen glauben, dass der Computernutzer alle Variablen beherrscht und dass er von Hand (und mit Genauigkeit) die Lagen ändern kann. Das stimmt nicht, weil die vom Computernutzer beherrschten Elemente nur einen kleinen Bruchteil der tatsächlichen Faktoren ausmachen, die in ein Computer-Modell eingebaut sind.

Ein ähnlicher Fehler ist, etwa so zu denken: „wir kennen die Annahmen, die die Programmierer trafen, und wir berücksichtigen sie“. Das ist falsch.

Beim Schreiben eines Computer-Programms mit Komplexität werden buchstäblich Hunderte von Annahmen getroffen. Der Computer-Programmierer enthüllt seinem Kunden diese nicht alle, aus dem gleichen Grund, aus dem ein Steuerberater seinem Kunden nicht alle Annahmen bei der Erstellung einer Steuererklärung mitteilt. Er erwähnt nur einige Grundannahmen und sagt dann: „Unterschreiben Sie hier“.

Ja, dieses Beispiel bringt mich auf eine weitere Hauptvariable (Nr. 7): auf die Daten, die der Programmierer als Grundlage bei der Programmerstellung benutzt.

So, wie auch die Erstellung einer Steuererklärung auf der Zusammenarbeit zweier Parteien beruht, so ist auch das Schreiben eines Computer-Modells eine Zusammenarbeit zwischen Wissenschaftler und Programmierer. Wenn der Steuerpflichtige dem Steuerberater unvollständige oder unrichtige Angaben macht, wird das Ergebnis falsch. Das Beunruhigende ist, dass in vielen Fällen keine der Parteien erkennt, dass die Ergebnisse falsch sind.

Gleichermaßen wird das Ergebnis falsch sein, wenn ein Wissenschaftler (unabsichtlich) unvollständige oder ungenaue Daten dem Programmierer für dessen Arbeit gibt. Und keine Partei wird es merken.

Es gibt eine noch bedeutendere Variable (Nr. 8) zu berücksichtigen. Nach der Fertigstellung eines Computer-Modells wird ein „Dolmetscher“ (z. B. das IPCC) die „Ergebnisse“ für Politiker und die Öffentlichkeit (z. B. die Medien) übersetzen.

Und da erleben wir eine Überraschung: Diese Übersetzungen werden von politischen, religiösen, umweltbezogenen, finanziellen und wissenschaftlichen Meinungen beeinflusst. Erklären die Dolmetscher in ihren öffentlichen Äußerungen alle ihre unterschwelligen Vorurteile? Man weiß jetzt die Antwort: ganz gewiss nicht.

Wenn alle diese Faktoren in die Gleichungen eingeführt werden, sind wir offensichtlich schon so weit von den wissenschaftlichen Tatsachen abgewichen, dass diese gar nicht mehr sichtbar sind.

Daher müssen wir sehr sorgfältig nachdenken, bevor wir große Aktionen starten, die fast ausschließlich auf Computer-Modellen beruhen (z. B. viele Billionen Dollar ausgeben wegen der Klimaprognosen, für die Nutzung der Windenergie usw.) 

Was ist zu tun? Alle Computer-Modelle einfach müllen?

Nein, da würden wir ins andere Extrem verfallen. Computer-Modelle haben ihre Verdienste – doch der Schwanz sollte nicht mit dem Hund wedeln.

Wir sollten realistischerweise Computer-Modelle als das sehen, was sie sind: Hilfsmittel beim Ordnen unserer Gedanken und Erzeuger von sehr subjektiven Ergebnissen, die am Anfang von wirklich wissenschaftlicher Analyse stehen sollten.

Alle Computer-Modelle sollten mit einem sehr gesunden Grad von Skepsis betrachtet werden wegen ihrer innewohnenden Begrenzungen (die ich hier nur angerissen habe).

Und um die angemessene Integrität zu gewährleisten, sollten alle Computer-Modelle für wichtige Angelegenheiten der strengen wissenschaftlichen Methodologie unterworfen werden.

Wenn sie nicht genau und ständig die Beobachtungen aus der wirklichen Welt reproduzieren können, dann sollten sie verworfen werden.

Unglücklicherweise geschieht das nicht. 

Wir sind derart süchtig nach der Illusion geworden, dass diese Programme stimmen – und einige Leute lassen sich von politischen Zielen antreiben. Und wir passen schon die Beobachtungen aus der wirklichen Welt an oder stellen sie gar in Abrede, wenn sie nicht mit dem Modell übereinstimmen. Das ist verrückt.

Wenn ein Modell nicht an der vollen Abbildung der Wirklichkeit erprobt worden ist, dann hat es nur sehr begrenzten Nutzen und sollte mit dem gleichen Grad von Berücksichtigung bedacht werden, wie man sie vielleicht einem Horoskop zuerkennt.

John Droz, Jr. ist Naturwissenschaftler und Anwalt. 

Den Originalartikel finden Sie hier: 

Die Übersetzung besorgte Helmut Jäger für EIKE




Kommentar zu …Rahmstorf zitiert NASA : 2009 wärmstes Jahr !

Achtung: Diese News wurde ergänzt, (s. u.) 

Um mir selbst ein Bild zu machen, und da wir gewohnt sind, uns auf Beobachtungen zu verlassen, statt auf Prognosen, habe ich vor etwa einem Jahr die in Wetterzentrale.de gespeicherten und um 1700 beginnenden Temperaturmessungen ausgewertet. Die Erarbeitung von ca. 300 Temperaturganglinien hat viele Kenntnisse aus meiner jahrzehntelangen Hydrogeologen-Zeit bestätigt. 

 Auf der Grundlage meiner Beschäftigung mit Temperaturganglinien möchte ich zu der NASA-Grafik, die Sie in Ihrem Artikel NASA: 2009 auf Rang 2 vom 18.1.2010, kommentiert haben, anmerken, dass man diese Temperaturganglinie in Analogie zu anderen Klimaentwicklungen anders interpretieren sollte, nämlich so, wie ich sie zusätzlich eingezeichnet habe. Sie stimmt dann in ihrer Aussage auch recht gut mit den Ganglinien anderer Institute überein. Selbst wenn 2009 das zweitwärmste Jahr gewesen sein sollte – man wird ja unsicher, welchen Daten man noch trauen kann –, ist daraus nicht zu folgern, dass die Erwärmung weiter geht. Warten wir doch ein paar Jahre ab!

 

Glück auf!  F.-K. Ewert EIKE

25.23.10

Sehr geehrte Kommentatoren,

Das Originalzitat von Herrn Rahmstorf finden Sie unter dem von mir angegebenen Link NASA: 2009 auf Rang 2.

Sie haben um Beispiele für analoge Klimaentwicklungen gebeten. Ich habe bei meiner Auswertung  der Temperaturdaten aus www.wetterzentrale.de dafür viele Beispiele gefunden. Eines füge ich bei; alle anderen werden im Rahmen einer umfassenden Ausarbeitung demnächst hier zu sehen sein. 

Man kann in die Temperaturganglinie die Trendlinie als gerade Linie einzeichnen, weil Einzelheiten unberücksichtigt bleiben sollen – oder müssen. Man kann aber auch die Einzelabschnitte betrachten, um damit – beispielsweise – eine städtebauliche Entwicklung zum Ausdruck zu bringen, die man natürlich kennen muss. Letzteres macht mehr Arbeit, lohnt sich aber, denn man  entdeckt dabei, wie gut die Temperaturganglinie die Stadtentwicklung reflektiert. Die Station New York, Central Park, zeigt das nahezu perfekt:

  • 1820 – 1900 rot: bei  üblichen Schwankungen weder Erwärmung noch Abkühlung, gleichbleibend, städtische Normalbebauung aus 19. Jahrhundert.
  • 1900 – 1950 grün: Bau von Hochhäusern, auch in der Umgebung des Central Parks, verändert das Mikroklima.
  • 1950 – 1990, orange: nach Stabilisierung auf ca. 2°C höheren Niveau etwa gleichbleibende Temperatur.
  • 1990 – 2005 dunkelgelb: Beginn einer leichten Abkühlungsphase, die mangels weiterer Daten hier nicht abschließend beurteilt werden kann.  

 

 Das Verfahren der Einzelabschnittanalyse funktioniert gut; deshalb habe ich es angewendet, und zwar nicht nur in diesem Fall.

Apropos „…– man wird ja unsicher, welchen Daten man noch trauen kann – …..“: Die Zuverlässigkeit der NASA-Daten habe ich damit nicht bezweifelt. Wenn man allerdings Herrn Rahmstorfs Interpretation der NASA-Kurve folgt – die Erwärmung setzt sich fort – dann widerspricht sie der Hadley-Kurve, die eine Abkühlung anzeigt. Den Widerspruch kann man auf zweierlei Weise auflösen:

  • Wenn Herrn Rahmstorfs Interpretation stimmt, ist die Hadley-Kurve falsch – oder umgekehrt.
  • Wenn man die Einzelabschnittanalyse anwendet, stimmen beide Kurven sehr wahrscheinlich mindestens tendenziell überein (Überprüfung des Maßstabes vorbehalten!), dann würde jedoch um 2000 die Erwärmungsphase durch eine Abkühlungsphase abgelöst worden sein.

Glück auf!  F.-K. Ewert

 




Wahrheit & Basis von wissenschaftlichen Erkenntnissen: Auf der Suche nach Antworten !

Was ist die Wahrheit, war die Frage aller Fragen in der Geschichte. Pontius Pilatus wollte mit den drei Wörtern auf seine Unfähigkeit eine Antwort auf diese Frage geben zu können, hindeuten. Quid est veritas? Etwa 100 Jahre nach den Ereignissen von Jerusalem entwickelte Claudius Ptolemäus in Alexandrien das damalige Weltbild, das fast 1500 Jahre Gültigkeit besaß. Dieses Weltbild platzierte die Erde als Mittelpunkt des Weltalls, wo sich alle anderen Himmelskörper auf angesehenen Bahnen um die Erde bewegten. Um die bekannten Beobachtungen in Einklang zu bringen, entwickelte er die Epizyeltheorie, die, gemessen an heutigen Maßstäben, eine sehr hohe Genauigkeit besaß. Johannes Kepler stürzte gegen den Willen der herrschenden Kleriker dieses Weltbild etwa um 1600. Heute weiß man, dass viele Messungen von Ptolemäus fingiert und gefälscht waren und ferner an die Beobachtungen angepasst waren, um seine Theorie zu unterstützen. Somit stürzte nach 1500 Jahren das Lügengebäude und als Folge beschleunigte  sich sogar der gesellschaftlich Erneuerungsprozess, der etwa um 1500 mit dem Renaissance begonnen hatte.

In moderner Zeit, in der die Welt wissenschaftlich technologisch geprägt ist, wurden auch immer wieder Verfälschungen und Lügen entdeckt, jedoch erst nach vielen Jahren, nachdem sie Schaden eingerichtet hatten. Die Spitze des Eisbergs war die Affäre Hendrik Schön in den Jahren 2002/2003. Hendrik Schön, Absolvent von Universität Konstanz, hatte die Daten seiner Arbeiten über „Bahnbrechende Ergebnisse für die Entwicklung von Computer-Chips jenseits der heutigen Silizium-Technologie“ gefälscht. Er veröffentlichte unter dem strengen „Peer Review“ Prozess mehrere seiner Artikel in Science und Nature und galt bereits als Nobelpreis-Kandidat. Schließlich als die Lüge nach Jahren aufflog, wurde er von Bell Laboratories, USA sofort entlassen und erst im Jahre 2009 sein Doktortitel gerichtlich aberkannt.

Im Folgenden wird versucht zu zeigen, wie Fälschungen bewusst oder unwissentlich den Weg auch in den heutigen aktuellen Themen, wie der Klimaforschung Fuß gefasst haben.

Eine kritische Betrachtung der Klimaforschung

Die Klimadiskussion, die in den Medien seit den 80er Jahren geführt und insbesondere seit der Rio Konferenz [1] im Jahre 1992 sehr stark politisiert wird, hat dazu geführt, dass maßgebliche Institutionen den Menschen die Wichtigkeit der globalen Erwärmung zu zeigen, indem sie immer wieder versucht haben, den Klimawandel als eine katastrophale Folge der menschlichen industriell technischen Lebensweise darzustellen.

Zwei Parameter wurden immer wieder in den Nachrichten, aber auch in der gängigen wissenschaftlichen Literatur der Bevölkerung präsentiert, um die Menschheit letztendlich durch eine so genannte Klimaabgabe finanziell in die Verantwortung zu ziehen. Diese beiden Parameter sind die Erhöhung des CO2 in der Atmosphäre, das seit etwa 1958 durch ein neues Verfahren auf einer Höhe von 4000 Metern in Hawaii gemessen wird und die global gemittelte Temperaturerhöhung seit 1880. Die Messwerte von CO2 im Mauna Loa Observatorium in Hawaii [2], die seit 1958 existieren, wurden im Rahmen dieser Aktionen durch die Messwerte, gewonnen aus antarktischen Eisbohrkernen, bis zurück in die 400 000 Jahre Vergangenheit extrapoliert. Wissenschaftliche Arbeiten, die dieses Vorgehen kritisch bewertet haben, wurden dabei [3] nicht in Betracht gezogen. Wenn man jetzt den Parameter globale Temperatur betrachtet, wird auch klar, dass diese Größe rein statistischer Natur ist. Eine Mittelung von verschiedenen Temperaturen  in einem Raum kann man zwar einfach durchführen, aber die Aussagefähigkeit dieser Größe ist sehr problematisch. Dennoch, nimmt man die so gemittelten Temperaturdaten seit 1880, fällt sehr schnell auf, dass die Mess-Stationen in der Vergangenheit sehr spärlich waren und zudem die meisten von denen in der Nordhalbkugel akkumuliert waren. Deshalb sind die älteren Daten sehr mit Vorsicht zu genießen. Nimmt man die aktuell veröffentlichten Daten und trägt man diese in einem Diagramm, wie es in Abb. 1 gemacht wurde, sieht man, dass global gemittelt innerhalb der letzten 100 Jahre rechnerisch eine Temperaturerhöhung von 0.61°C erfolgt ist. Diese Daten basieren auf einer Sammlung der NASA [4] und die willkürlich gewählte Null Linie ist hier die mittlere Temperatur zwischen 1951 und 1980. Die lineare Regressionsanalyse mit einem Regressionskoeffizienten von R2 ~ 65 %, ist sehr niedrig und zeigt, dass man statistisch so eine Datensammlung zwar analysieren kann, jedoch mit der Aussage sehr vorsichtig sein soll. Auf diesem Diagramm sieht man folgenden Trends, die weitaus wichtiger sind. Nach einer leichten Erwärmung von 1880 bis 1938 folgte eine stärkere Abkühlungsperiode, die bis 1970 dauerte. Danach stiegen die Temperaturen bis 1998 global an, und seit 1998 bis heute sieht man eine Periode des Stillstands. Sogar bei näherer Analyse kann auch eine leichte Abkühlung in den letzten 10 Jahren statistisch festgestellt werden.

Abb.1 Global gemittelte Temperaturdaten der Erdoberfläche seit 1880 bis 2009, entnommen aus NASA GISS Quelle. Das Diagramm wird in der Literatur als Temperatur Anomalie Diagramm bezeichnet [4]. Die Basis- Temperatur  ist willkürlich gewählt und ist der Mittelwert zwischen 1951 und 1980.

Die Erde war und ist in seiner Geschichte stets mit klimatischen Änderungen konfrontiert. Die an mehreren Orten wie in Antarktis oder Grönland durchgeführten Eisbohrkern-Untersuchungen zeigen diese Phänomene. Mehr noch, diese Daten zeigen auch, dass abrupte Klimaänderungen eher die Regel waren als die Ausnahme. Gesammelte Daten in der Zentrale von NOAA World data center of Paleoclimatology, Boulder, USA [5] sind im Rahmen dieser Arbeit unten (Abb. 2) dargestellt. Diese Daten stammen aus dem zentralen Grönland von Eisbohrkernen, die bis 49000 Jahren vor unserer Zeit zurückdatiert werden können. Laut dieser Untersuchung sind die Daten etwa 1% genau. Abb.2 zeigt den gesamten Temperaturablauf in Grönland (Zentralgrönland) von 1920 bis 49000 Jahren vor unserer Zeit.

 

Abb.2 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten [5] zeigen die abrupten Klimaänderungen der Erdoberfläche.  Die etwa vor 10 000 Jahren einsetzende rapide Erwärmung der Erde endete etwa vor 8000 Jahren. Erstaunlich ist es auch, dass sich die Hochzivilisationen erst ab dieser Zeit begannen zu entwickeln. 

Der vergrößerte Abschnitt in Abb. 3 zeigt die Verhältnisse bis 5000 Jahre vor unserer Zeit. Es ist klar ersichtlich, dass sich das Klima in schnellen Abfolgen auf und ab bewegte.

Abb.3 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten, zeigen die abrupten Änderungen der Erdoberfläche bis vor 7000 Jahren. Mehreren so genannten Klimaoptima folgten dann rapide Abkühlungsphasen. 

Weiterhin ist in der geschichtlichen Neuzeit das sich einsetzende Klimaoptimum um 1000 nach Christus sehr klar ersichtlich. In dieser Zeit wurde Grönland in den Küstenregionen von den Wikingern kolonisiert und nach der Abkühlung in den Jahren nach 1300 wieder entvölkert. Abbildung 4 zeigt die Zusammenstellung dieser Daten in einem Diagramm.

 

Abb.4 Temperaturdaten von Zentralgrönland rekonstruiert, aus Eisbohrkerndaten, zeigt das Klimaoptimum um 1000 nach Christus.  Ferner sind hier die Maunder, Dalton Minima und die kleine Eiszeit um 1700 auch gut erkennbar. Diese Minima korrelieren mit den Sonnenflecken Aktivitäten. In den Minima war die Anzahl der Sonnenflecken  auch sehr gering oder fehlten fast.

Abb.5 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten, zeigen die letzten wichtigen Ereignisse der Erdgeschichte. Um 1815 war der gewaltige Vulkanausbruch von Tambora, der kurz danach zu einer weltweiten Erdabkühlung führte. Ebenso löste der Vulkanausbruch Krakatau im Jahr 1883 eine kleine Abkühlungsphase der Erde aus und stoppte die Erwärmung kurzzeitig. 

Betrachtet man die Abb. 5, die sich dem letzten Abschnitt der Grönland-Temperatur- Rekonstruktion widmet, ist ersichtlich, dass weit entfernte Ereignisse mit einer kleinen Zeitverzögerung auf das Klima wirken. Die beiden Vulkaneruptionen Tambora und Krakatau in weiten Indonesien [6, 7] stoppten den Erwärmungstrend der Erde kurzzeitig für mehrere Jahre und sogar kühlte die Erde in dieser Zeit beträchtlich.

Fälschung in Namen der Klimaforschung: Die Erderwärmung zwischen 1880 und 2000, hervorgerufen durch menschlichen Einflüssen

Laut IPCC, die gerne und oft die Abbildung 1 als Beweis der anthropogen bedingten Erwärmung der Erde ausführt, ist diese Erklärung eine Unwahrheit oder in milder Form benannt nicht mehr als eine Hypothese. Wenn IPCC und die dazugehörigen unzähligen Organe die Erderwärmung als Beweisstück zeigen wollten, dann warum nicht den ganzen Kurvenzug, nämlich die erdgeschichtlichen Ereignisse seit 1800 wo die Erde nach einer Abkühlungsperiode sich wieder zu erholen begann. Da jedoch die industrielle Revolution nach 1900 einsetzte, wird dieser Teil des Kurvenzugs von IPCC als Beweis des anthropogenen Einflusses auf das Erdklima ausgeführt. Laut Abb. 3 ist die Erde heute etwa noch mehr als 1.2°C kühler, als in der Zeitspanne des Klimaoptimums um 1000 nach Christus, wo sich auf der Erde bestimmt keine industriellen Einrichtungen befanden. 

Fälschung in Namen der Klimaforschung: „Hockey stick“ Kurvenschlag als Beweis der enorm hohen Erwärmung in unserem Jahrhundert

Der nächste Skandal der vom Hause IPCC kam, ist der so  genannte „smoking gun“, Michael Mann’s Hockey Stick Beweis [8]. In 2001 wurde dieses Diagramm als letztes und wichtigstes Beweismittel gegen die Menschen gemachte Erderwärmung in dem IPCC Bericht eingeführt. Nach heftigen Einwänden und mit statistischen Beweisen von Stephen McIntyre and Ross McKitrick [9] konnte dieses entkräftet werden. Die Autoren Mann, Bradley, Hughes hatten bewusst die Daten [10] in ihrem Sinne manipuliert. Das besagte Diagramm wurde dann von IPCC in 2007 entfernt.

Fälschung in Namen der Klimaforschung: Entwendung von Daten und tausende Emails von CRU, Hadley Center, East Anglia University „Climategate“

In November 2009 wurden 61 MByte Daten aus dem  CRU Hadley Center in East Anglia University von Unbekannten entwendet und diese frei erhältlich ins Internet gestellt. Diese Daten enthielten etwa 1079 Emails und 72 Dokumente, manche von Ihnen hochbrisant, und zeigten, wozu die so genannten Wissenschaftler fähig waren, um die Klima-erwärmungshypothese zu beweisen,. Einige Fakten sind wie folgt:

  • Die heimliche Freude über den Tod von John Daly im Jahre 2004, einem Wissenschaftler aus Tasmanien, der stets bemüht war, den Klimawandel richtig zu interpretieren, wurde schriftlich in einer Email festgehalten. Ein wichtiger Kritiker weniger passte wohl in dieses Schemata.
  • Diskussionen über die Anwendung von Methoden, wie die ermittelten Daten, die eine Temperaturabnahme zeigten, in den Kurven versteckt werden können.
  • Diskussion darüber, wie man das Mittelalterliche Optimum von der Erdgeschichte wegdiskutiert werden könnte. 
  • Die von Zeitschriften als „peer review“ geforderten Wissenschaftler, die ihre Funktion als unabhängige Referee wahrnehmen sollen, wurden bewusst unter den Gesichtspunkten ausgewählt, um kritische Beiträge zu blockieren.

Diese Datenentwendung zeigte wieder, dass die Wahrheitsfindung keine Rolle spielt, wenn finanzielle und politische Interessen im Vordergrund stehen.

Fälschung in Namen der Klimaforschung: Falsche Daten über die Himalaya Gletscher finden Eingang im politischen IPCC Bericht

Im Januar 2010 wurde die Weltgemeinschaft mit einer Meldung überrascht, dass das angekündigte Verschwinden des Himalaya Gletschers von IPCC großenteils eine Fälschung war. Natürlich kann in einer Arbeit, auch in einem wissenschaftlichen Bericht, immer eine Zahl falsch sein. Das steht außer Frage, jedoch muss man dann dazu stehen und die Gründe der falschen Aussage revidieren und nicht alle Hebel in Bewegung setzen und sich verteidigen. Die Vorgeschichte begann bereits in August 2009 in Indien durch die Veröffentlichung eines umfangreichen Berichtes von V. K. Rayna, dem früheren Direktor des staatlichen geologischen Instituts in Indien [11]. In November 2009 bereits begann eine sehr scharfe Diskussion zwischen dem indischen Umweltminister und dem Nobelpreis-geschmückten früheren Eisenbahningenieur der TATA Company  und jetzigen IPCC Leiter Rajandra Pachauri. Die Inder waren über die Aussage in dem IPCC-Bericht sehr erstaunt, dass die Himalaya-Gletscher von bis zu 80 % im Jahre 2030 verschwinden würden. Bei der Diskussion warf sogar Pachauri dem indischen Umweltminister vor, dass er arrogant wäre und die Arbeiten von seriösen Wissenschaftlern nicht berücksichtige.

Nun was war geschehen? Die ganze Geschichte geht zurück auf das Jahr 1996 als der russische Gletscherforscher V. M. Kotlyakov einen umfangreichen Bericht für Unesco geschrieben hatte [12].  In diesem Bericht auf der Seite 66 hatte der Forscher seine Hypothese beschrieben, dass durch die Erderwärmung die Himalaya-Gletscher bis zu 80 % im Jahre 2350 zusammenschrumpfen würden. Diese Zahl 2350 wurde ohne Kritik von WWF (World Wildlife Fund) genommen und bewusst oder fälschlich als 2030 an das IPCC weitergegeben. Diese Zahl steht jetzt in dem IPCC Bericht und natürlich schlugen die Wellen hoch. Bemerkenswert in diesem Zusammenhang ist es auch, dass Kotlyakov im Jahre 2008 die Komplexität der Klimaforschung detailliert ausführte und begann, sich von seiner damaligen Hypothese langsam zu entfernen [13].  

 Dr. Armand Nyilas* für EIKE

*Der Verfasser dieses Schriftstücks ist freischaffender Wissenschaftler und erklärt eidesstattlich, dass er bisher weder von Kerntechnik, noch von Öl- oder Kohleindustrie finanzielle Hilfen erhalten hat.

 

Literaturstellen

 

1.     Lexikon der Nachhaltigkeit: http://alt.nachhaltigkeit.info/6000/Geschichte.htm

2.     Mauna Loa Observatory: http://co2now.org/index.php/Current-CO2/CO2-Now/current-data-atmospheric-co2.html

3.     Ernst Georg Beck, “180 Years of atmospheric CO2 gas analysis by chemical methods”, Energy and Environment, Vol. 18 No. 2 2007

4.    

GLOBAL Temperature Anomalies in 0.01 degrees Celsius base period: 1951-1980, NASA: http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.txt#http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.txt

5.     Alley, R.B..  2004. GISP2 Ice Core Temperature and Accumulation Data. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA. ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotopes/gisp2_temp_accum_alley2000.txt

6.     Tambora: http://www.geology.sdsu.edu/how_volcanoes_work/climate_effects.html

7.     Krakatau: http://www.drgeorgepc.com/Volcano1883Krakatoa.html

8.     Michael Mann: http://www.global-warming-and-the-climate.com/mann’s-hockey-stick-climate-graph.htm

9.     http://en.wikipedia.org/wiki/Hockey_stick_controversy

10.   http://www.examiner.com/x-28973-Essex-County-Conservative-Examiner~y2009m11d22-The-Hockey-Stick-was-never-accurateand-CRU-knew-it

11.   V. K Raina, Ex Deputy Director General, Geological Survey India, http://moef.nic.in/downloads/public-information/MoEF%20Discussion%20Paper%20_him.pdf

12.   V. M. Kotlyakov, “Variation of snow and ice in the past and at present on a global and regional scale”, Int. Hydrological Programme IHP-IV Project H-4.1, UNESCO Paris 1996 http://unesdoc.unesco.org/images/0010/001065/106523E.pdf

13.  V.M. Kotlyakov,   http://www.un.org:80/wcm/content/site/chronicle/lang/en/home/archive/Issues2009/pid/5085

 

Related Files




Gott Globus – Umweltschutz als neue Weltreligion

 In einem Anflug von bisher ungekannter Offenheit berichteten SpiegelStern und Welt darüber, dass das IPCC sich bei seinen Angaben über das erwartete Schmelzen der Gletscher im Himalaja wohl auf falsche Angaben gestützt hatte. Anstatt sich auf wissenschaftliche Literatur zu verlassen, die einem Peer-Review unterzogen wurde, wie es eigentlich Aufgabe des IPCC sein sollte, wurden Zahlen aus einer Studie des WWF ungeprüft übernommen. Angesichts dieser Erkenntnisse erscheinen die Anschuldigungen des indischen Umweltministers Jairam Ramesh an den Vorsitzenden des IPCC,  den Inder Rajendra Pachauri, in einem völlig neuen Licht.

Ramesh hatte bei der Vorstellung einer indischen Studie zur Gletscherschmelze (wir berichteten) das IPCC der Übertreibung bei seinen Aussagen zur Gletscherschmelze im Himalaja bezichtigt und damit die Glaubwürdigkeit des IPCC selber in Frage gestellt. Woraufhin Pachauri die Verlautbarungen Rameshs als “extrem arrogant”  bezeichnete. Vor dem Hintergrund dieser neuen Enthüllungen ist es wohl eher Pachauri, dem man Arroganz vorwerfen muss.

Zwar hat diese Meldung es bisher noch nicht in die Redaktionsstuben unser TV- und Radiosender geschafft, aber auch hier sind jetzt zunehmend Stimmen zu hören, die das Dogma des Menschen als Umweltzerstörer und Klimakiller mehr und mehr in Zweifel ziehen. Gestern Abend konnte man ind der 3sat Kulturzeit einen Bemerkenswerten Beitrag mit dem Titel “Gott Globus” sehen. Darin wurde folgende ketzerische Frage gestellt:

Biblische Plagen wie Hungersnöte und Sintfluten gelten nicht mehr als gottgewollt, sondern vom Menschen gemacht. Ist der Umweltschutz die neue Weltreligion?

Gott Globus – Umweltschutz als neue Weltreligion from Science Skeptical on Vimeo.

Darin sagt der Soziologe Norbert Bolz:

Der Glaube an den Klimawandel bringt uns Aug´in Aug´mit einer absehbaren Katastrophe, das heißt wir können wieder religiös empfinden, ohne an einen Gott glauben zu müssen. Das ist offenbar für eine atheistische Gesellschaft wie die unsere ein fast unwiderstehliches Glaubensangebot…

Al Gore ist der erste Politiker, der es wieder gewagt hat, zumindest in der westlichen Welt, als Prophet aufzutreten. Und man könnte sagen, er hat an seine gescheiterte Politikerdkarriere eine sehr erfolgreiche Prophetenkarriere angeschlossen.  Und das interessanterweise mit dem Material scheinbar avantgardistischer Wissenschaft. Das ist eine, wie ich finde, sehr unheilvolle Mischung…

Selten waren wir in den letzten Jahrzehnten weiter entfernt von Liberalität und einer Art Massenaufklärung als heute. Ganz im Gegenteil, wir sind wieder in die Hände von Propheten geraten.

Eins scheint sicher zu sein – der Damm ist gebrochen. Es ist somit zu hoffen, dass sich in nächster Zeit wieder mehr Journalisten auf das besinnen, was ihre eigentliche Aufgabe ist. Nämlich nach der Wahrheit zu suchen, und nicht das zu verkünden, was sie für die Wahrheit halten.

von Rudolf Kipp; zuerst erschienen bei Science Sceptical Blog 

ÄHNLICHE BEITRÄGE: 

Related Files




Nur 0,0004712 Prozent!! BUND Aktivist weiss nicht wieviel CO2 von Deutschland in die Luft abgegeben wird!

Oben: Lord Monckton im Gespräch mit einer Greenpeace Aktivistin am 4.12.09 in Berlin.

Der Leser Dr. Ing. Urban Cleve aus Dortmund beschreibt darin eine Begegnung mit einem Mitarbeiter des Bundes Umwelt und Naturschutz Deutschland (BUND) wie folgt:

„Ich wurde kürzlich auf dem Westenhellweg an einem Stand des „BUND" von einem Mitarbeiter auf CO2 angesprochen.

Danach folgte folgendes Gespräch:

‚Wie hoch ist denn der Anteil des CO2 in der Luft?’

Antwort: ‚Hoch’.

‚Wie hoch denn?’

‚Sehr hoch.’

‚Wie viel Prozent?’

‚Weiß ich nicht.’

‚Was ist denn sonst noch in der Luft?’

Keine Antwort, nur ein staunendes Gesicht.

‚Haben Sie schon mal etwas von Sauerstoff gehört?’

‚Ja, sicher, Sauerstoff ist in der Luft.’

‚Wieviel Prozent denn?’

‚Weiß ich nicht.’

Meine Antwort: ‚21 Prozent.’

Das erschien ihm glaubhaft.

Neue Frage: ‚Was ist denn sonst noch in der Luft? Haben Sie schon mal etwas von Stickstoff gehört?’

‚Ach ja, sicher Stickstoff ist auch noch in der Luft.’ ‚Wieviel Prozent?’

‚Weiß ich nicht."

Meine Erläuterung: ‚Etwa 78 Prozent.’

Mein Gesprächspartner drehte sich um und sagte: ‚Das glaube ich Ihnen nicht, das kann nicht stimmen, denn dann bleibt ja für CO2 nichts mehr übrig’, drehte sich um und ging.

Er hatte diesmal fast recht. Es sind nur 0,038 Prozent CO2 in der Luft.

Wer noch rechnen möchte:

Also 0,038 Prozent CO2 sind in der Luft; davon produziert die Natur 96 Prozent, den Rest, also vier Prozent, der Mensch*. Das sind dann vier Prozent von 0,038 Prozent also 0,00152 Prozent. Der Anteil Deutschlands hieran ist 3,1 Prozent. Damit beeinflusst Deutschland 0,0004712 Prozent des CO2 in der Luft. Damit wollen wir die Führungsrolle in der Welt übernehmen, was uns jährlich an Steuern und Belastungen etwa 50 Milliarden Euro kostet.“

Die Informationspflicht dem Zeitgeist geopfert

Warum erfahren FAZ-Leser eine solche entscheidende Information nur über einen Leserbrief, nicht aber in der überaus umfänglichen Berichterstattung und Kommentierung über Klimawandel und Klimaschutz durch die Redakteure und Korrespondenten selbst? Gelegenheit und Verpflichtung dazu wäre spätestens vor, während und nach der bombastischen „Klimaschutzkonferenz“ der Vereinten Nationen vom 7. bis 18. Dezember 2009 in Kopenhagen gewesen. Andere Medien haben sich damit ebenfalls nicht hervorgetan und einen wesentlichen Teil ihrer Informationspflicht lieber dem politischen Zeitgeist geopfert.

Wie gut, dass es andere Informationsmöglichkeiten gibt, vor allem im Internet. Dazu gehört auch dieser Blog. Er verschafft Ihnen, verehrte Leser, immerhin einen Informationsvorsprung.

Die Kopenhagen-Konferenz ist mit ihrem Ziel erfreulicherweise gescheitert (siehe meinen Beitrag vom 20. Dezember 2009). Und Sie wenigstens wissen, warum ich das für erfreulich halte.

x) Es sind nicht nur drei Nullen hinter dem Komma, sondern sogar vier. Ein anderer FAZ-Leser hat nachgerechnet und kommt auf 0,00004712 Prozent (FAZ vom 20.1.2010).

Sehen Sie hier ein vergleichbares Frage & Antwortspiel mit einer Greenpeace Aktivistin

Mit Dank an Autor Dr. Krause "Junge Freiheit" und FAZ Leserbriefschreiber Dr. Cleve

* Anmerkung der Redaktion: Es gibt für viele Leute Probleme Emissionen und Konzentration auseinander  zu halten. Der genaue Anteil des antropogenen CO2 an der atmosphärischen Konzentration ist unbekannt. Dr. Cleve schätzt hier 4 %. (Das IPCC schätzt 3 %) Tatsache ist, dass es auch nur sehr grobe Schätzungen zum Anteil des Menschen an den Emissionen gibt. Das UBA schätzt diesen Anteil auf 1,2 % (ja, so genau sind die). Andere Experten schätzen ihn auf 3-4 %. Wohlgemerkt, an den Emissionen! Wieviel davon in der Atmosphäre verbleibt, weiss wiederum keiner, da die möglichen Quellen und Senken weder genau bekannt sind, noch hinreichend genau quantifziert werden können. Für Leser, die an Details interessiert sind, lohnt es sich hier nachzuschauen: http://tinyurl.com/yjfgmsp