„Simple Physik“ oder „Die unerträgliche Komplexität des Klimas?“

Immer wieder lese ich Äußerungen (* man sehe z.B. hier ab Min 4:46)  an verschiedenen Stellen über die Unbestreitbarkeit der „einfachen physikalischen Tatsache“, dass die von uns eingebrachte Menge von CO2 in die Atmosphäre zwangsläufig die Erde erwärmen würde. Und liest sich so:

In der übertreibenden Sprache, die die Debatte verseucht hat, sind Forscher schon wegen Allem verdächtigt worden, angefangen damit, dass sie die Wissenschaftlichkeit aufgegeben hätten, um an einer umfassenden Verschwörung mitzumachen. Doch die Grundlagen des Treibhauseffekts beruhen auf einfacher Physik und Chemie. Sie waren etwa ein Jahrhundert lang Bestandteil des wissenschaftlichen Dialogs.   

Und hier noch ein Beispiel:

Wichtig ist, dass wir wissen, wie die Treibhausgase auf das Klima einwirken. Vor hundert Jahren hat Arrhenius das vorhergesagt. Es ist einfache Physik.

Unglücklicherweise ist die Physik einfach, das Klima bei weitem nicht. Es ist eines der komplexesten Systeme, die wir kennen. Das Klima ist ein Tera-Watt-Wärme-Maschine von planetarischem Ausmaß. Es wird angetrieben sowohl von irdischen wie von außerirdischen Kräften, von denen eine ganze Menge unbekannt ist. Viele verstehen wir kaum und/oder können sie nur schwierig messen. Es ist inhärent chaotisch und turbulent, zwei Bedingungen, für die wir wenige mathematische Werkzeuge haben.

Fünf Haupt-Subsysteme bilden das Klima: Atmosphäre, Ozeane, Kryosphäre, Lithosphäre und Biosphäre. Wir verstehen sie alle nur unvollkommen. Auf jedes dieser Subsysteme wirken bekannte und unbekannte interne und externe Kräfte, Rückkopplungen, Resonanzen und zyklische Änderungen. Dazu wirkt jedes Subsystem auf die anderen durch eine Vielzahl von bekannten und unbekannten Kräften und Rückkopplungen ein.

Dann ist da noch das Größenordnungsproblem. Entscheidend wichtige Prozesse des Klimas verlaufen physikalisch von der molekularen bis zur planetarischen Größenordnung und zeitlich vom Millisekunden- bis zum Jahrtausend-Bereich.

Das Ergebnis dieser nahezu unvorstellbaren Komplexität ist, dass die einfache Physik schlicht ungeeignet ist, um die Wirkung einer Klimaänderung vorherzusagen, wenn einer aus den vielen Hunderten von Einflussfaktoren verändert wird.
Ich möchte an zwei Beispielen erläutern, warum die einfache Physik nicht auf das Klima anwendbar ist: an einem Fluß und an einem Stahlblock. Mit einem Gedankenexperiment mit dem Stahlblock geht es los.

Nehmen wir an, ich will wissen, wie die Temperatur auf feste Körper wirkt. Ich nehme einen 75 Kg schweren Stahlblock und setze ihn mit dem Boden in einen Eimer mit heißem Wasser. In bester physikalischer Vorgehensweise befestige ich mit Klebeband ein Thermometer am oberen Ende und beginne mit der Temperaturaufzeichnung. Zunächst passiert nichts. Ich warte also. Und bald beginnt die Temperatur am oberen Teil des Stahlblock zu steigen. Das ist doch einfache Physik, nicht wahr?

Um meine Ergebnisse zu bestätigen, mache ich das Experiment mit einem Kupferblock. Ich erhalte das gleiche Ergebnis. Der nicht im Wasser befindliche Teil des Blocks fängt rasch an, sich zu erwärmen. Ich versuche es mit einem Glasblock mit gleichem Ergebnis. Meine vorläufige Schlussfolgerung ist eine Lehre der einfachen Physik: wenn ein Teil eines Festkörpers erwärmt wird, erwärmt sich der andere Teil auch.

Nun mache ich einen abschließenden Versuch. Ohne mir etwas Besonderes dabei zu denken, schießt mir durch den Kopf: Ich wiege etwa 75 Kg. Also setze ich mit den Füßen in einen Eimer mit warmem Wasser, stecke mir das Thermometer in den Mund und warte darauf, dass mein Kopf wärmer wird. Diese Versuchsanordnung ist oben in Abbildung 1 dargestellt.

Wie unser Gedankenexperiment zeigt, kann die einfache Physik nicht funktionieren, wenn es um ein komplexes System geht. Das Problem besteht darin, dass es Rückkopplungsmechanismen gibt, die den Effekt des warmen Wassers auf meine kalten Zehen unwirksam machen. Die von meinem Körper angestrebte Temperatur wird nicht von externen Kräften geregelt.

Für eine verfeinerte Sicht auf das Geschehen betrachten wir das zweite Beispiel, einen Fluss. Hier wieder ein Gedankenexperiment.

Ich nehme eine Sperrholzplatte und bedecke sie mit etwas Sand. Ich hebe sie derart hoch, dass eine schiefe Ebene zwischen den Seiten entsteht. In unserem Gedankenexperiment stellen wir uns vor, dass dies ein Hügel ist, der zum Meer hin abfällt. 

Ich lege eine Stahlkugel auf die obere Seite der sandbedeckten Sperrholzplatte und beobachte, was passiert. Die Kugel rollt geradeswegs zur tiefem Seite hinunter, wie die einfache Physik uns lehrt. Mit einer Holzkugel erhalte ich das gleiche Ergebnis. Ich denke nun, dass dies eine Folge der Form des Objekts ist.

Also mache ich einen kleinen hölzernen Schlitten und setze ihn wieder auf die Platte. Und wieder rutscht er zum Meer hinunter. Ich versuche es nun mit einem Miniatur-Stahlschlitten mit gleichem Ergebnis. Auch der rutscht direkt zum Meer hinunter. Einfache Physik, wie schon von Isaac Newton erklärt.

Als Schlußtest nehme ich einen Schlauch und lasse etwas Wasser von der oberen Seite hinunter laufen, um einen Modellfluß zu machen. Zu meiner Überraschung fängt das Wasser bald an auszuweichen, obwohl der Modellfluß gerade nach unten gerichtet beginnt. Binnen kurzem hat es einen mäandrierenden Verlauf gebildet, der sich auch noch verändert. Flußabschnitte bilden lange Schleifen, das Bett ändert sich, Schleifen werden abgeschnitten, neue bilden sich und nach einer Weile erhalten wir etwas wie dieses: 

Abbildung 2. Mäander, Altwasserschleifen und tote Abwasserarme in einem Flußsystem. Man beachte das alte ursprüngliche Flußbett.

Am erstaunlichsten ist, dass der Prozeß nie aufhört. Gleichviel, wie lange wir das Flußexperiment durchführen, das Flußbett verändert sich stets. Was ist hier los?

Also, zuvörderst können wir feststellen, dass die einfache Physik in dieser Situation nicht so funktioniert, wie beim Stahlblock. Die einfache Physik lehrt, dass die Dinge geradeswegs abwärts rollen, aber das passiert hier nicht … also brauchen wir bessere Werkzeuge, um den Wasserfluß zu anaylisieren.

Gibt es mathematische Werkzeuge, um dieses System zu verstehen? Ja, aber sie sind nicht einfach. In den 1990ern gab es einen Durchbruch mit Adiran Bejans Entdeckung der Konstruktions-Morphologie. Die Konstruktions-Morphologie gilt für alle fließenden Systeme, die weit vom Gleichgewicht entfernt sind, wie ein Fluß oder das Klima. 

Es zeigt sich, dass derartige Fließsysteme keine passiven Systeme sind, die jedwege Form annehmen können. Stattdessen streben sie zur Maximierung eines Aspekts des Systems. Beim Fluß wie auch beim Klima strebt das Flußsystem danach, die Summe der bewegten Energie und der durch Turbulenz verlorenen Energie zu maximieren. Zur Erklärung dieser Prinzipien siehe hier oder hier oder hier, oder hier
Es gibt auch eine Webseite, die vielen Anwendungen des Gesetzes der Konstruktions-Morphologie gewidmet ist.

Wir können einige Schlußfolgerungen aus der Anwendung des Gesetzes der Konstruktions-Morphologie ziehen:

1. Jedes weit vom Gleichgewicht entfernte Fließsystem kann nicht beliebige Form annehmen, so wie die Klimamodelle unterstellen. Stattdessen gibt es einen Zielzustand, den es zu erreichen versucht.

2. Dieser Zielzustand wird allerdings nie erreicht. Stattdessen schießt das System ständig über diesen Zustand hinaus oder bleibt darunter, es kommt niemals in einer abschließenden Form zur Ruhe. Das System bildet sein internes Erscheinungsbild stets neu in Richtung auf seinen Zielzustand aus.

3. Die Ergebnisse der Wechsel in einem derartigen Fließsystem sind oft nicht einsichtig. Nehmen wir beispielsweise an, wir wollten den Fluss verkürzen. Die einfache Physik sagt, das wäre leicht. Also schneiden wir eine Schleife ab und das verkürzt den Fluss … aber nur kurzfristig. Bald richtet sich der Fluss neu aus, und irgendwo wird ein anderer Teil des Flusses länger. Die Länge des Flusses wird von ihm selbst bestimmt. Ganz im Gegensatz zu unseren simplizistischen Annahmen können wir die Länge des Flusses nicht durch unsere Maßnahmen verändern.

Hier sehen wir nun das Problem mit der „einfachen Physik“ und dem Klima. Die einfache Physik sagt eine einfache lineare Beziehung zwischen den Klima-Antriebskräften [climate forcings]und der Temperatur voraus. Die Leute glauben wirklich, dass eine Veränderung von X bei den Klima-Antriebskräften unweigerlich zu einer Wirkung A * X auf die Temperatur führt. Das nennt man „Klima-Sensitivität“, und das ist eine Grundannahme bei den Klima-Modellen. Das IPCC sagt, dass eine Verdoppelung des CO2 etwa zu einer Erhöhung von 3C der globalen Temperatur führt. Es gibt aber wirklich keinen Beleg für diese Annahme, nur Computer-Modelle. Die aber nehmen diese Beziehung als vorgegeben an und können daher nicht als ihr Beweis dienen.

Wie schon die Flüsse zeigen gibt es keine einfache Beziehung in einem vom Gleichgewicht weit entfernten Fließsystem. Wir können eine Schleife abschneiden, um den Fluss zu verkürzen, der aber verlängert sich dann woanders, um seine Gesamtlänge zu behalten. Anstatt sich von einer Veränderung der Antriebskräfte beeinflussen zu lassen, setzt sich das System seine eigenen Zielzustände  (z. B. Länge, Temperatur, usw.), die auf natürlichen Grenzen beruhen und Fließmöglichkeiten und noch anderen Systemparametern.

Was lernen wir daraus? Das Klima ist ein vom Gleichgewicht weit entferntes Fließsystem. Es wird vom Gesetz der Konstruktions-Morphologie beherrscht. Daraus abgeleitet: es gibt keine physikalisch begründbare Annahme, dass mehr CO2 einen Unterschied für die globale Temperatur bedeutet.  Das Gesetz der Konstruktions-Morphologie zeigt eher in die Denkrichtung, dass es überhaupt keinen Unterschied macht. Wie dem auch sei und unabhängig von Arrhenius, wir können nicht einfach annehmen, dass die auf einfacher Physik beruhende Beziehung zwischen CO2 und der globalen Temperatur zutrifft.

Willi Eschenbach Tuvalu

Aus dem Englischen von Helmut Jäger für EIKE. Der Originalartikel erschien hier.




Inventur nach „Floppenhagen“!

AUSLÖSER DER TRUNKENHEIT

Die Faktoren, die in unseren Gesellschaften aus Angst vor einem Klimawandel das kritische Denken eingeschränkt haben, sind vielfältig. Es scheint, als waren zu Anfang – und sind es im­mer noch – Leute am Werk, die mit großem Engagement und Tatkraft  vielleicht Gutes im Sinn hatten, die aber von der Hauptsache keine Ahnung haben, nämlich von der Erde und ihrem Klima. 

Gründung des IPPC

Zwischen ca. 1947 und 1976 erfuhr die Erde eine sehr deutliche Abkühlung; Ende der 70er Jahre wurde schon eine Eiszeit befürchtet, was den amerikanischen Journalisten Lowell Ponte ein spektakuläres Buch schreiben ließ – The cooling: has the next ice age began? Can we survive it? Nach der Abkühlung folgte zwischen 1980 und 2000 eine überdurchschnittliche Erwärmung. Nur wer ausschließlich den Gegensatz zwischen diesen beiden Phasen bewertete, konnte auf den Gedanken einer globalen Erwärmung kommen – vorausgesetzt, er wusste nicht, dass Klimaent­wicklungen nicht für so kurze Zeitabschnitte beurteilt werden dürfen, oder es waren keine kli­matologischen sondern politische Beweggründe ausschlaggebend. Die folgenden Zitate aus dem Interview mit dem Zeitzeugen Hartmut Bachmann in der WELTWOCHE vom Juli 2009 beweisen, dass politische Motive bestimmend waren: 

Maurice Strong, erster UNEP-Direktor: „Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“

Prof. Dr. Stephen Schneider, Lead Author in Working Group of the IPCC, sagten 1989:

„Deshalb müssen wir Schrecken einjagende Szenarien ankündigen, vereinfachende, dramatische Statements machen und wenig Erwähnung irgendwelcher Zweifel, die wir haben mögen, entlassen. Um Aufmerksamkeit zu erregen brauchen wir dramatische Sta­tements und keine Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er eher ehrlich oder eher effektiv sein will.“ 

„…eher effektiv…“ bedeutet ja, gegen die Wirklichkeit der Fakten zu handeln. Was waren das für Leute? Dass dieses Konzept grundsätzlich dumm ist, konnte man doch damals auch schon wis­sen, denn über kurz oder lang würde sich die Wirklichkeit nicht mehr verdrängen lassen und das Konzept als Betrug entlarvt werden. Das Schicksal des Kommunismus hätte ihnen ein Beispiel sein können: Das „morgen geht es uns besser“ ist verbraucht, wenn morgen erreicht ist. Inzwi­schen ist morgen erreicht, denn viele Prognosen erweisen sich als falsch, und deren Gegenteil ist eingetreten. ClimateGate zeigt, wie das verschleiert werden sollte. 

 

…..

In den Medien ist der Begriff Klimawandel allgegenwärtig, und obwohl die Physik bestrebt ist, Systeme zu definieren, wird in der öffentlichen Diskussion nirgendwo gesagt,  was einen Kli­mawandel ausmacht. Ist das Fehlen einer klaren Definition Absicht?

Wenn heute die Sonne scheint und es morgen regnet, oder wenn auf einen etwas zu kalten Som­mer ein etwas zu warmer Winter folgt, oder wenn sich die Mittelwerte zweier Perioden nur we­nig voneinander unterscheiden und folglich unsere Lebensumstände nicht beeinflussen,  ist das nur eine Temperaturschwankung. Solche Schwankungen gab es immer. Wie groß müssen die Veränderungen sein, damit eine Temperaturschwankung zum Klimawandel wird?

Wurde der Klimawandel bisher nicht definiert,  um einfache Temperaturschwankungen als Kli­mawandel behandeln zu können? Gegenwärtig wird etwas beurteilt, was nicht definiert ist. Dabei kann man nur etwas beurteilen, das man kennt. Alle reden vom Klimawandel, aber keiner weiß, wann er anfängt – anscheinend nicht in der Wissenschaft und schon gar nicht in den Medien.

Dabei ist die Unterscheidung zwischen Temperaturschwankung und Klimawandel schon lange möglich: Es wurden Klimaklassifikationen etabliert, beispielsweise von KÖPPEN + GEIGER, die die Klimate der Welt auf der Grundlage der Klimaelemente (Temperatur, Niederschlag …)  in Klimaregionen einteilen, wobei die Regionen jeweils mehrere Klimazonen umfassen, die durch spezifische Klimaformeln definiert sind. Für Berlin und weite Teile Deutschlands gilt die Klima­formel Cfb, für Mailand und Oberitalien Cfa, wobei Cf  ein warmgemäßigtes immerfeuchtes 

Klima beschreibt, und der dritte Buchstabe zwischen den Mitteltemperaturen der Sommermonate unterscheidet: Cfa > 22°C; Cfb < 22°C; Cfa kennzeichnet die Klimazone von Mailand und Oberitalien, Cfb von Berlin und weiter Teile Deutschlands.  

Die Orte einer Klimazone können unterschiedliche mittleren Jahrestemperaturen haben. Sie betragen für Berlin-Dahlem 8,8° und für das etwas wärmere Frankfurt/Main 9,73°, d.h. der Un­terschied innerhalb dieser Klimazone beträgt 0,93°. Das zur wärmeren Klimazone gehörende Mailand hat eine Durchschnittstemperatur von 12,77°. Die Unterschiede zwischen Ber­lin/Frankfurt und Mailand betragen 3,97° bzw. 3,04° . 

Diese Unterschiede rechtfertigen die Folgerung, dass kleine Temperaturänderungen als Schwan­kungen bzw. entsprechend große als Klimawandel zu klassifizieren sind. Eine absolute Grenze lässt sich nicht festlegen, näherungsweise  könnte sie zwischen 1,5 und 2° liegen. 

….

In einer Tageszeitung sieht man im Kreise von Kindern eine Lehrerin, die ihre Schützlinge über das gefährliche CO2 ‚aufklärt’, nicht selten wird es sogar schon als giftig hingestellt. CO2 ist le­bensnotwendig, denn die Pflanzen stellen aus CO2 und Wasser mittels Photosynthese Trauben­zucker her, und damit alle weiteren Nahrungsmittel. Außerdem ist CO2 Teil der Atemluft. Wie sollen Kinder ein gesundes Gefühl für die Natur entwickeln können, wenn man sie schon im Grundschulalter derart indoktriniert?

Das Publikum ist größtenteils nicht in der Lage, wissenschaftliche Erkenntnisse zu beurteilen und nimmt sie schnell für bare Münze. Wer von einem Forschungsgebiet die Grundlagen nicht versteht, kann verständlicherweise nicht erkennen, ob ein Ergebnis richtig ist. Es ist tägliche Pra­xis, dass in der Regel nicht hinterfragt wird, was wissenschaftlich ermittelt wurde. Das gilt umso mehr, je prominenter die Institutionen und die Persönlichkeiten sind. In unserer Leistungsgesell­schaft wird Prominenz auch in der Wissenschaft leider nicht selten vorrangig durch Vermark­tungskompetenz erworben. Statt Wissenschaftsgläubigkeit wäre – ausnahmsweise – Lenin ange­bracht, nämlich: „Vertrauen ist gut, Kontrolle ist besser.“  Auf gut demokratisch heißt das: angst­freie, transparente und unbehinderte Diskussion.  

Das umso mehr, als auch im Grenzgebiet des Wissens für die Forschung das Prinzip von Ver­such und Irrtum gilt. Ein junger Forscher antwortet auf die Frage nach seiner gegenwärtigen Ar­beit: „Ich bereite meinen nächsten Irrtum vor“. ….

…..Vor 300 Jahren ging die Kleine Eiszeit zu Ende und danach hat sich die Temperatur erholt. Sie ist seitdem weltweit im Mittel um 0,7° C angestiegen, aber auch nicht überall auf der Erde, denn in manchen Regionen hat sie sich um 0,5°C sogar verringert. In diesen 300 Jahren verlief  die Rückerwärmung nicht gleichmäßig, sondern wurde von Phasen der Abkühlung unterbrochen – beispielsweise zwischen 1947 und 1976, oder nach 2002, als eine neue Abkühlungsphase be­gann. Die Rückerwärmung erfolgte außerdem nicht überall auf der Erde, sondern es gab auch immer benachbarte Regionen, deren Temperaturen sanken. Solche Regionen gab es sogar in der überdurchschnittlichen Erwärmungsphase zwischen 1980 und 2000.  

Wie in den Jahrhunderten zuvor gab es auch in den letzten 300 Jahren lediglich Temperatur­schwankungen üblichen Ausmaßes, ein globaler Klimawandel lässt sich aus den realen Tempe­raturmessungen nicht erkennen; ein wirklicher Klimawandel erforderte auch sehr viel größere Änderungen. Der ‚Globale Klimawandel’ ergibt sich nur aus Modellrechnungen – ohne Compu­ter wäre dieses Phantom nie geboren worden. …

….

Der Nordseespiegel ist zwischen 1600 und 1800 mit ca.  4 mm/a und zwischen 1800 und 2000 mit ca. 2 mm/a angestiegen. Das wird sich noch einige Zeit fortsetzen, weil der Meeresboden und die umgebende Küstenregion isostatisch absinken. An den Küsten der Malediven, Tuvalu und Vanatu sowie den Inseln der Karibik variiert der Meeresspiegel periodisch aber erhöht hat er sich in den letzten Jahrzehnten nicht.

 

….

Die Diskussion um den Klimawandel ist seit einiger Zeit um die ‚Versauerung der Ozeane’ er­gänzt worden, weil der pH-Wert sich von 8,2 auf 8,1 erniedrigt hat. 

Der Begriff ‚Versauerung’ ist falsch, denn die Zahlen belegen lediglich eine Verringerung der Alkalität, denn mit pH = 8,1 befinden sich die Meere immer noch im alkalischen Bereich und eine mehr als zehnfache Veränderung wäre notwendig, um ab pH =7 das Wasser wirklich sauer werden zu lassen

Der Begriff ‚Versauerung’ – schlimmer noch: Übersäuerung – wurde vermutlich gewählt, um den Eindruck einer Verschlechterung des Zustandes der Meere zu erwecken. Wenn die Vermu­

tung stimmt, wussten die Urheber dieses Begriffes nichts von den Wachstumsbedingungen tropi­scher Korallenriffe: mehr CO2 befördert ihr Wachstum, das gleichzeitig  CO2 wieder verbraucht.

Grundsätzlich ist zu bezweifeln, dass dieser Komplex überhaupt beurteilt werden kann, denn repräsentative Langzeitmessungen über den pH-Wert der Meere liegen sehr wahrscheinlich nicht vor, und noch weniger sind deren regionale und tiefenabhängige Schwankungen bekannt. Auf welcher Basis wollte man beurteilen, ob und in welchem Maße und mit welcher Periodizität der pH-Wert sich überhaupt ändert?

 

Es ist eine Tatsache, dass sich im Laufe der Erdgeschichte das Klima ständig geändert hat und zwar ohne unseren Einfluss, denn es gab uns noch nicht. Auf die Frage des Autors an den Pres­sesprecher des Potsdamer Instituts für Klimafolgenforschung (PIK), warum man denn die geolo­gischen Fakten nicht bewerte, antwortete er, dass man die historischen Gegebenheiten vernach­lässigen könne, weil die Modellrechnungen die weitere Entwicklung genauer anzeigen. Hinweise von Geologen an modellrechnende Klimaforscher, man möge doch die aus der Erdgeschichte be­kannten Klimaentwicklungen berücksichtigen, blieben unbeachtet. Sachlich wäre die gegentei­lige Praxis richtig: Wenn Ergebnisse von Modellrechnungen den historischen Fakten widerspre­chen, sind die Berechnungen falsch.

Es ist erstaunlich, dass Klimaforscher, die ihrer Ausbildung und Tätigkeit nach nur wenig von der Erde wissen können, überzeugt sind, alle und die richtigen Parameter für ihre Modellrech­nungen zu kennen. Es muss daran erinnert werden, dass solche Modellrechnungen kaum das Grundprinzip von Wissenschaftlichkeit erfüllen: Die Nachprüfbarkeit des Modells oder der Ein­gaben durch andere ist nicht gegeben oder zumindest fraglich. Man kann an ein Symphoniekon­zert denken: Dirigenten verwandeln gleiche Noten in ungleiche Hörerlebnisse. ..

 

Auf der oben genannten Berliner Tagung wurde gefolgert, dass viele Klimafaktoren noch nicht ausreichend bekannt und verstanden sind. Dazu passt, dass sich inzwischen  Prognosen als falsch herausgestellt haben, die ursprünglich als Meilensteine verkündet wurden – weder der Meeres­spiegel noch die globalen Temperaturen steigen wie vorausberechnet. Der Meeresspiegel der Weltmeere ist über 18 Jahre konstant geblieben und die Temperaturen sinken sogar. Auch diese beiden Entwicklungen sind im voraus nicht erkannt worden. 

Jetzt wäre es zweckmäßig, erst mal eine Zeit lang zu messen und zu beobachten, um zu sehen, was vom prognostizierten Klimawandel bestätigt wird. Wahrscheinlich wird sich die um 2000 begonnene Abkühlung fortsetzen, und damit wird auch der Glaube an den Klimawandel ein­schlafen.

Wenn Politiker sagen, dass sie handeln müssen, um eine mögliche Gefahr abzuwenden, dann sollten sie auch die Wahrscheinlichkeit ihres Eintretens und die Kosten gegeneinander abwägen. Ab einem bestimmten Missverhältnis sind Investitionen zur Abwehr einer noch möglichen aber nicht mehr wahrscheinlichen Gefahr nicht mehr zu rechtfertigen. Außerdem ist die von uns Men­schen schon immer geübte Anpassung an neue Gegebenheiten die bessere und effizientere Me­thode mit Änderungen fertig zu werden, als der extrem teure aber ergebnislose Versuch, die na­turbedingte Gefahren zu vermeiden. …

..

Statt unsere Energien im Kampf für den Klimaschutz ergebnislos zu verbrauchen, sollten wir sie auf Umweltschutzmaßnahmen konzentrieren, und da bieten beispielsweise Erdbeben ein lohnen­des Investitions- und Betätigungsfeld: Selbstverständlich kann man Erdbeben nicht verhindern, aber man kann ihre Schäden und ihre Opferzahlen minimieren. In Japan und Kalifornien wird das seit langem erfolgreich praktiziert. So forderte das Gilan-Beben im Iran 1990 30.000 –

50.000 Tote, während ein gleich starkes Beben im gleichen Jahr in Kalifornien nur 84 Men­schenleben kostete. Die Schäden eines Erdbebens sind nicht nur seiner Stärke geschuldet, son­dern auch einer nicht angepassten Besiedlung und Bauweise. Die Schäden des Erdbeben auf Haiti zeigen dies überdeutlich. Es würde sich auszahlen, dort – und in anderen gefährdeten Ge­bieten – in angepasste Besiedlungen und eine stabilere Bauweise zu investieren.

Das Phantom ‚Klimawandel’ hat sich inzwischen zu einer Pseudoreligion entwickelt und da Menschen ein Glaubensbedürfnis haben, pilgern sie in Scharen zu den Klimakonzilien. Jedes kostet einen vielstelligen Millionenbetrag und endet zwangsläufig mit einer Enttäuschung. Das Geld wäre sinnvoller für direkte Maßnahmen des Umweltschutzes ausgegeben statt für den in­ternationalen Konferenztourismus.

 

Prof. Dr. F.K. Ewert EIKE

*Dieser Beitrag ist keine wissenschaftliche Publikation, weshalb keine Quellen zitiert werden, die jedoch im Bedarfsfalle für alle genannten Fakten zur Verfügung gestellt  werden können. 

Den ganzen Text finden Sie in der Anlage als pdf Datei

 

Related Files




ClimateGate 22: IPCC erneut der Falschmeldung überführt. Regenwaldbedrohung im Amazonas stammt vom Holzeinschlag nicht vom Klimawandel!

 „Wir tun unser Bestes beim Auswerten der Qualitätsinformationen zu Fragen des Klimawechsels hinsichtlich aller Aspekte. Einigen Leuten gefallen unsere Arbeitsergebnisse nicht. Nun ist es mal passiert, wir haben einen Fehler gemacht in der Sache mit dem Gletscher, doch das ist ein Fehler in einer Angelegenheit in einem Bericht von 3.000 Seiten. Wir werden unser Verfahren verbessern, damit so etwas nicht noch einmal geschieht.“

Das sagt Jean-Pascal von Ypersele, der stellvertretende Vorsitzende des IPCC heute [27.01.10] im The Daily Telegraph – und so wird das auch verbreitet von der wohlbekannten Louise Gray, der außergewöhnlichen Lieferantin von WWF Presseverlautbarungen. Es war schlicht ein „menschlicher Irrtum“, fügt er hinzu.

„Ist Irren nicht menschlich? Auch das IPCC ist eine Institution von Menschen, und ich kenne keine, die keine Fehler macht. Und doch ist es ein bedauernswerter Vorfall, dass wir diese falsche Beschreibung des Himalaya-Gletschers veröffentlicht haben,“

sagt er weiter.

Dennoch hält das IPCC weiter an seiner Legende fest, dass dies der „einzige Irrtum“ sei, steckt seinen Kopf tief in den Sand und ignoriert die wachsenden Beweise, dass der IPCC-Bericht mit Irrtümern gespickt ist – um eine noch sehr wohlwollende Bezeichnung zu gebrauchen.

Ein weiterer dieser „Irrtümer“ ist die falsche Behauptung, auf die ich in einer meiner kürzlichen Beiträge über „Amazonasgate“ hingewiesen habe. Das IPCC hat die Auswirkung des Klimawandels auf die Amazonas-Urwälder grob übertrieben und behauptet, dass „bis zu 40% des Amazonas-Urwaldes drastisch auf eine noch so kleine Verminderung im Niederschlag reagieren könnten“ – und das auf Grund eines nicht von Fachleuten überprüften WWF-Berichts, dessen verantwortlicher Autor Andy Rowell ein freier Journalist ist.

Weil ich aber auch „menschlich“ bin – wenn auch Einige diesen Anspruch stark bezweifeln – scheint mir, dass ich mich in meiner Analyse geirrt habe mit meinem Vorwurf, dass in dem vom IPCC herangezogenen Dokument kein Beleg für die Behauptung des IPCC wäre, dass „40 Prozent des Amazonas vom Klimawechsel bedroht sind“.

Tatsächlich ist das der Vorwurf, den James Delingpole und Watts up with that verbreiten, während ich doch wirklich geschrieben hatte, dass die vom Autor des WWF-Berichts stammende Behauptung, „bis zu 40% des Amazonas-Urwaldes könnten drastisch auf eine ganz geringe Verminderung des Niederschlags reagieren“ nirgendwo im Bericht zu finden wäre.

Den WhatsUpWithThat Beitrag hat ein gewisser „Icarus“ kommentiert, der anmerkte, dass es eine Referenz für die 40%-Zahl im WWF-Bericht wie folgt gibt:

Bis zu 40% des Brasilianischen Urwaldes sind extrem empfindlich für kleine Verminderungen der Regenmenge. Während der 1998er trockenen Jahreszeit wurden rund 270.000 qkm feuergefährdet, weil das für die Pflanzen erreichbare und in den oberen fünf Metern des Erdbodens gespeicherte Wasser völlig ausgetrocknet war. Für weitere 360.000 qkm Urwald gab es nur noch 250 mm pflanzenerreichbares Grundwasser.

Da ich diesen Absatz völlig übersehen hatte, ist das mein Irrtum. Und deshalb habe ich den Vorwurf erhoben, der IPCC-Absatz wäre „eine Erfindung, die noch nicht einmal im angegebenen Verweis“ zu finden sei.

Dennoch wird die Geschichte interessanter, weil sich die Behauptung von Rowell und seinem Ko-Autor Peter Moore auf einen Artikel im Magazin „Nature“ bezieht, nämlich auf:

D. C. Nepstad, A. Veríssimo, A. Alencar, C. Nobre, E. Lima, P. Lefebvre, P. Schlesinger, C. Potter, P. Mountinho, E. Mendoza, M. Cochrane, V. Brooks, Large-scale Impoverishment of Amazonian Forests by Logging and Fire, Nature, 1999, Vo l 398, 8 April, pp505.

Der Zugriff auf den Artikel ist gebührenpflichtig, dennoch habe ich eine freie Version dieses Papiers hier gefunden. Das Papier ist veröffentlicht in den „letters to Nature“ und in diesem Magazin wurde es fachlich begutachtet (was nicht bei allen Zeitschriften der Fall ist). Worauf sich sofort die Frage erhebt, warum die IPCC-Autoren statt des „Nature“-Artikels eine sekundäre Referenz zitierten.

Die Erklärung liegt vielleicht im Titel des Artikels: „Großflächige Verarmung der Amazonas-Urwälder durch Holzeinschlag und Feuer“, – d.h. es geht nicht um den Klimawandel. Beim Durchforschen des Textes haben wir nach Abschnitten gesucht, die die Behauptung von Rowell & Moore und nachfolgend des IPCC vielleicht stützen könnten. Um uns vor Augen zu führen, was da geschrieben worden ist, zitieren wir die Textstellen hier.

Zuerst aus dem IPCC Fourth Assessment Report, Working Group II – Chapter 13:

Bis zu 40% des Amazonas-Urwaldes könnten drastisch auf eine schon geringe Verminderung des Niederschlags reagieren; das bedeutet, dass die tropische Vegation, der Wasserhaushalt und das Klimasystem in Südamerika sehr schnell in einen anderen stabilen Zustand umschlagen könnte, wobei nicht notwendigerweise graduelle Veränderungen [beim Übergang] zwischen der gegenwärtigen und der zukünftigen Situation stattfänden. (Rowell und Moore, 2000)

Dazu wird die Referenz genannt: Rowell, A. and P.F. Moore, 2000: Global Review of Forest Fires. WWF/IUCN, Gland, Switzerland, 66 pp – mit zwei Links, hier und hier. Die entsprechende Textstelle lautet:

Bis zu 40% des Brasilianischen Urwaldes sind extrem empfindlich selbst auf kleine Verminderungen der Regenmenge. Während der 1998er trockenen Jahreszeit wurden rund 270.000 qkm feuergefährdet, weil das für die Pflanzen erreichbare und in den oberen fünf Metern des Erdbodens gespeicherte Wasser völlig ausgetrocknet war. Für weitere 360.000 qkm Urwald gab es nur noch 250 mm pflanzenerreichbares Grundwasser.

Wenn wir jetzt einen Beleg für diese Behauptung suchen, gehen wir zum Papier in „Nature“, wo die entsprechenden Abschnitte wie folgt lauten:

 „Obwohl der Holzeinschlag und die Waldbrände normalerweise nicht alle Bäume zerstören, schädigen sie dennoch den Wald ernstlich. Holzfirmen in Amazonia zerstören oder beschädigen 10-40% der lebendigen Biomasse des Waldes durch das Abholzen. Das Abholzen erhöht auch die Entzündbarkeit des Waldes indem das Blätterdach um 14-50% vermindert wird und so das Sonnenlicht auf den Waldboden gelangen läßt, welches dort die organischen Überreste austrocknet, die durch den Holzeinschlag entstanden sind.“

Die mit dem El-Nino-Phänomen  (El Nino-Southern Oscillation) zusammenhängende Dürre kann große Flächen des Amazonas-Urwaldes austrocknen und erzeugt die Gefahr großflächiger Waldbrände. Infolge der heftigen Dürren von 1997 und 1998 schätzen wir, dass bei ca. 270.000 qkm des Amazonas-Urwaldes am Ende der 1998er trockenen Jahreszeit das in den oberen fünf Metern gespeicherte und für Pflanzen erreichbare Wasser völlig geleert war. Zusätzlich waren für 360.000 qkm Wald weniger als 250 mm pflanzenerreichbares Grundwasser übrig. Zum Vergleich: nur 28.000 qkm Wald in Roraima hatten das Grundwasser bis zu 5 m tief geleert, als die Roraima-Waldbrände auf dem Höhepunkt waren."

So können wir feststellen, dass eine Behauptung (IPCC), wonach „bis zu 40% des Amazonas-Urwaldes drastisch auf eine schon geringe Verminderung des Niederschlags reagieren könnten“,  auf eine Behauptung (Rowell & Moore) zurückgeführt werden kann, wonach „bis zu 40% des Brasilianischen Urwaldes extrem empfindlich selbst auf kleine Verminderungen der Regenmenge sind“. Aber das scheint allein auf der Behauptung zu gründen, dass „Holzfirmen in Amazonia 10-40% der lebendigen Biomasse des Waldes durch das Abholzen zerstören oder beschädigen“.

Anders gewendet und beginnend bei „Nature“ wird der Satz: 

„Holzfirmen in Amazonia zerstören oder beschädigen 10-40% der lebendigen Biomasse des Waldes durch das Abholzen“ 

zu 
„bis zu 40% des Brasilianischen Urwaldes sind extrem empfindlich selbst auf kleine Verminderungen der Regenmenge“,

bis daraus wird:  
„Bis zu 40% des Amazonas-Urwaldes könnten drastisch auf eine schon geringe Verminderung des Niederschlags reagieren“.

Und so etwas nennt Jean-Pascal von Ypersele das „Auswerten der Qualitätsinformationen zu Fragen des Klimawechsels hinsichtlich aller Aspekte“.

Zur Beantwortung unserer eigenen Frage, warum die IPCC-Autoren nicht die fachbegutachtete Referenz in „Nature“ benutzten und stattdessen die Sekundärquelle, wird der Grund nun klar: Das Papier stützte schlicht die Behauptung nicht, die sie machen wollten.

Dabei kommt es nur auf den Kontext an. Im „Nature“-Papier schreiben die Autoren über die Auswirkungen des Holzeinschlags auf den Regenwald. Sie beschreiben, wie selektives Baumfällen (z. B. Mahagoni wird eigens erwähnt) den betroffenen Wald schädigt, indem die verbleibenden Bäume anfälliger für die Dürre werden. Daher ist die erhöhte Empfindlichkeit auf verminderte Niederschläge – sollten diese eintreten – ein Sekundär-Effekt, der nur die bereits geschädigten Wälder betrifft.

In diesem Kontext beziehen sich die 40 Prozent, auf welche sich Rowell & Moore und nachfolgend das IPCC stützen, nicht auf ein Gebiet des Amazonas-Regenwaldes, stattdessen auf den Anteil von Bäumen, die infolge des Holzeinschlags in einzelnen Waldschneisen geschädigt sind (und es ist auch noch die höchste Schätzung). Dies kann nicht auf die Gesamtheit des Amazonas-Urwald-Gebietes ausgeweitet werden.

Als Anhalt für das Ausmaß des Schadens gibt es nur die Abschätzung im „Nature“-Papier, dass 

„etwa 270.000 qkm Amazonas-Urwald vollständig das pflanzenerreichbare Wasser in den oberen 5 m des Bodens am Ende der 1998er trockenen Jahreszeit geleert hätten,“ 

und dass zusätzliche 360.000 qkm unter verminderter Wasserverfügbarkeit litten – daher seien diese Bäume stärker anfällig gegen die Dürre.

Drei Punkte sind nun interessant:

Erstens, die Gebiete zusammen beziehen sich auf ein Gesamt-Urwaldgebiet von 4 – 6 Millionen qkm. Sie stellen also nur etwa 10 Prozent der Gesamtfläche dar.

Zweitens, die Auswirkungen wurden in Bezug auf starke Dürre beobachtet, die aus einer ungewöhnlich starken El Nino-Episode herrührten, sie hatten nichts mit dem Klimawandel zu tun.

Und drittens ist der Dürre-Effekt lokalisiert. In anderen Gebieten des Urwaldes bringt El Nino erhöhte Regenfälle.

Man kann es drehen und wenden wie man will, das „Nature“-Papier kann nicht zum Beleg für die Behauptungen herangezogen werden, die von Rowell & Moore, wie auch vom IPCC aufgestellt werden. Und wie bei der Behauptung über die Himalaya-Gletscher sollte auch dieser IPCC-Textabschnitt zurückgezogen werden.

Richard North http://eureferendum.blogspot.com/2010/01/corruption-of-science.html

Die deutsche Übersetzung besorgte Helmut Jäger für EIKE

 




Der Treibhauseffekt – wie funktioniert er?

 Aus diesem Grunde haben wir  den Versuch unternommen, den Treibhauseffekt nach dem heutigen fachlichen Stand komprimiert und verständlich zu erklären. Leider hat sich dafür ein wenig Physik und Mathematik als unabdingbar erwiesen. Wir bitten  hierfür um Entschuldigung. Der Berichtstext ist wegen besserer Lesbarkeit der Formeln im angefügten pdf-Dokument enthalten.

Die Autoren

Prof. Dr. Horst-Joachim Lüdecke (EIKE-Pressesprecher)

Dr. Rainer Link (EIKE)

Related Files




Salzbergwerk „Asse“ ein Desaster – für wen eigentlich?

Im stillgelegten Salzbergwerk "Asse" bei Woifenbüttel wurden über Jahrzehnte, nachdem es dort kommerziell nichts mehr auszubeuten gab, Versuche zur Endlagerung von schwach- und mittelradioaktivem Abfall gemacht. Nun wurde die Offentlichkeit durch Fernsehberichte und Zeitungsartikel aufgeschreckt: ,,Asse stürzt ein", "Asse säuft ab", Asse verseucht das Grundwasser radioaktiv", "Asse als Endlager ungeeignet", "Asse – ein Atomdesaster" lauteten die Schlagzeilen und ich sagte, das will ich selbst sehen. Hier die Ergebnisse: 

D "Asse stürzt ein" – Falsch! Salzbergwerke wie die "Asse" können nicht einfach einstürzen. Salz verhält sich geologisch nämlich wie Knetmasse ("Viskoplastizität"), die verschoben werden kann, ohne dabei einzustürzen 

D "Asse säuft ab" – Falsch! Die Kaverne des Wassereintritts befindet sich in 658 m Tiefe. Die Flüssigkeit ist gesättigte Salzlauge. Es wird gesammelt und einmal pro Woche, nach "Freimessung zur Unbedenklichkeit" mit einem Tankwagen in die 100 Kilometer entfernte Grube "Maria Glück‘ gefahren. In Norddeutschland werden ausgebeutete Salzbergwerke oft durch Fluten mit Wasser still gelegt. Das Wasser macht sie geologisch stabil. Anfangs löst das Wasser noch etwas Salz auf, bis es gesättigt ist. Danach ist die gesättigte Lauge sogar weniger kompressibel als das etwas poröse Salzgestein. 

D "Asse verseucht das Grundwasser radioaktiv" – Falsch!

Das ist völlig absurd. Es wurde der bergmännische Begriff "Grundwasser" (Wasser am Grunde des Bergwerkes), mit dem hydrologischen Begriff "Grundwasser" verwechselt. Das hydrologische Grundwasser gehört nach EU Wasserrahmenrichtlinie zum Oberflächenwasser eines Flussbassins, nicht aber Tiefenwasser 638 m unter der Erde. 

D "Asse als Endlager ungeeignet" Falsch!

Der Abraum wurde nicht oberirdisch auf Halde gefahren, sondern unter Tage belassen, indem die ausgeräumten rechteckigen Kavernen ( 60x40x20 Meter) größtenteils gleich wieder mit Abraum verfüllt wurden. Um die "Bergmechanik" und die Eignung zur Endlagerung zu untersuchen, wurden dreizehn leere Kavernen mit radioaktivem Abfall gefüllt, eine in 490 Meter Tiefe mit mittelaktivem und zwölf in 7~ Meter Tiefe mit schwachaktivem. Alles wurde in 125000 Fässern von jeweils 200 Litern Inhalt angeliefert. Einmal stürzte eine Ladung Fässer vom Transporffahrzeug. Ein Teil davon platzte auf. Das kontaminierte Material hatte eine Radioaktivität von maximal 8000 Becquerel Cs-137/kg. Er war noch nicht einmal schwachaktiv, weil damals die Untergrenze für schwachaktiven Abfall bei 10000 Becquerel/kg lag. Heute liegt sie bei 1000 Becquerel/kg. Seinerzeit brauchte die Asse GmbH keine Genehmigung, um das Unfallmaterial in 1000 Meter Tiefe beim Wiederauffüllen der Forschungsstrecken zu verfüllen. 

D "Asse- ein Atomdesaster" – Falsch!

Die Kaverne mi t dem höchsten Dosiswert wurde genau beobachtet. Eine Schautafel zeigt den Verlauf ihrer Dosiswerte in den vergangenen Jahrzehnten. Sie nahmen erst jahrelang stark ab. Danach fielen sie viele Jahre linear ab und waren damit für die Zukunft voraus berechenbar. Deshalb wurden die Messungen eingestellt. Eine andere Kaverne wurde nur teilverfüllt und durch ein Eisengitter gesichert, damit Besucher noch etwas sehen und eigene Messungen machen können. Einmal hat ein Besucher mit seinem eigenen hochempfindlichen Geigerzähler tatsächlich vor dem Eisengitter erhöhte radioaktive Strahlung gemessen. 

Es zeigte sich aber, dass die Strahlung von Kobaltspuren (Co-60) im Eisengitter stammte. Hinter dem Gitter war nur die extrem schwache Strahlung (des K-40) vom Füllmaterial zu messen. Bezüglich der Grenzwerte sollte man wissen: Der deutsche Grenzwert für Milch mit der wissenschaftlichen Bewertung "absolut unbedenklich" ist 500 Becquerel Cs-137/l. Rheumapatienten im Wannenbad in Bad Schlema legen sich in Badewasser mit 2000 Becquerel Ra-222/l. Demgegenüber sind 8000 Becquerel Cs-137/kg Salzmasse noch nicht einmal radiotherapeutisch nutzbar, weil niemand einfach so ein paar Gramm Salz mit dem Löffel essen würde. Übrigens, kann jedermann, Kleinkinder und Schwangere ausgenommen, nach Anmeldung bei "Info Asse" in das Bergwerk einfahren, seine eigenen Messgeräte mitnehmen und sich vor Ort kundig machen. Um mit den Worten von Jacques Delors, französischer Sozialist und dreifacher Präsident der Europäischen Union, zu enden: "Angstmachen ist ein Verbrechen an der Demokratie." 

Dr. Gerhard Stehlik EIKE

Lesen Sie seinen ausführlichen Bericht im Anhang und bilden sich selbst eine Meinung

*Röttgen: Rückholung von Asse-Fässern kostet 3,7 Milliarden

Berlin — Die Kosten für die Rückholung der radioaktiven Abfälle aus dem maroden und einsturzgefährdete Atomendlager Asse werden derzeit auf 3,7 Milliarden Euro geschätzt. Das sagte Bundesumweltminister Norbert Röttgen (CDU) im Umweltausschuss in Berlin. Röttgen sagte demnach, dass aufgrund der Bewertung der Langzeitsicherheit die "Rückholung der Abfälle" momentan als "beste Lösung" eingestuft worden sei. Es gebe aber noch keine endgültige Entscheidung. Röttgen verwies auch auf eine mögliche Kostenbeteiligung der Energieversorgungsunternehmen. Es gebe jedoch keine Rechtsgrundlage für eine Haftung, sagte er.

Nach Ansicht des Bundesamts für Strahlenschutz (BfS) soll das Lager in Niedersachsen möglichst schnell geräumt werden. Die Rückholung der Abfälle soll innerhalb von zehn Jahren erfolgen. Als Betreiber der Asse hatte das BfS in den vergangenen Monaten geprüft, wie das Problem mit dem Atommülllager bei Wolfenbüttel am besten zu lösen ist. Dort lagern rund 126.000 Fässer mit leicht- und mittelstark strahlendem Atommüll. Dabei war auch untersucht worden, ob die Fässer an ihrem Standort in 500 bis 700 Meter Tiefe sicher einbetoniert werden könnten oder ob eine Umlagerung in tiefere Schichten um tausend Meter eine Langzeitsicherheit gewährleisten würde.

Die Fässer waren zwischen 1967 und 1978 in das frühere Salzbergwerk Asse gebracht worden. Seit 1988 läuft Wasser in die Anlage. Die Behörde kann nach eigenen Angaben nicht ausschließen, dass sich die Menge so steigert, dass die Grube überflutet wird. Zudem ist die Stabilität der Schachtanlage beeinträchtigt.

Related Files




ClimateGate 21: Der IPCC-Skandal – Der Damm bricht!

Glaubwürdigkeit der Klimawissenschaft wird immer mehr in Frage gestellt

So war ziemlich sicher auch die im Zuge von Klimagate verlorene Glaubwürdigkeit der Klimaforschung ein Grund dafür, dass Journalisten das Bedürfnis hatten, kritischen Kommentaren,die bislang meist nur in Internetblogs zu lesen waren, etwas genauer auf den Grund zu gehen. Als Anfang November letzten Jahres Indische Wissenschaftler das IPCC beschuldigt hatten, bei den Vorhersagen zum Glescherschwund massiv zu übertreiben (wir berichteten), hielt man das noch für eine Außenseitenmeinung und ignorierte diese dementsprechend. Jetzt, nach Klimagate, sieht die Sache anders aus.

Wird Pachauris Kopf als erstes rollen?

Damals konnte der IPCC-Vorsitzende Rajendra Pachauri die Sache noch damit abtun, dass er seinen indischen Kollegen “extreme Arroganz” vorwarf und auf die überragende wissenschaftliche Expertise des IPCC verwies. Heute sieht es mehr danach aus, dass Pachauris Kopf der erste sein wird, der als Folge der IPCC-Affäre rollen wird (auch hier). Wobei vor allemPachauris finanzielle Verstrickungen und Interessenkonflikte immer mehr in den Vordergrund rücken.

Und heute, nach Klimagate, zeigen auch die Medien plötzlich ein bisher ungekanntes Interesse an den fragwürdigen Praktiken des IPCC. So staunten einige Spiegel Leser nicht schlecht, als sie heute morgen die aktuelle Ausgabe aufschlugen. Dort stellte Autor Gerald Traufetter ein “Schmelzendes Vertrauen“  in den Weltklimarat fest und auf SpiegelOnline wurde dann auch zur Rettung des Weltklimarates aufgerufen.Und selbst mein Haussender, der WDR, rückte auf einmal merklich von seiner bisher kritiklosen IPCC-Gläubigkeit ab. Nachdem letzte Woche noch sehr zarte kritische Worte zu vernehmen waren, wurde der Ton heute schon deutlicher.

Noch etwas näher am Geschehen war die Welt, die letzte Woche vermutete, dass der Bericht des Weltklimarates noch weit mehr Fehler enthält, als der bis dato bekannt gewordene “Zahlendreher” bei der Gletscherschmelze im Himalaja. Und so stellte sich am Wochenende zunächst heraus, dass der vermeintliche Flüchtigkeitsfehler dem IPCC sehr wohl bekannt war, man aber aus dramaturgischen Gründen entschied, die unbelegbaren Behauptungen beizubehalten (auch hier)

IPCC sieht den WWF als wissenschaftliche Quelle an

Und es dauerte auch nicht lange, bis weiter Ungereimtheiten im IPCC-Bericht gefunden wurden. Zusammenhänge zwischen dem Klimawandel und Naturkatastrophen beruhten auf zweifelhaften Studien, die Schäden durch Extremwetterereignisse wurden viel zu hoch angesetzt, und entgegen der ständigen Beteuerungen des IPCC basiert deren Report nicht ausschließlich auf wissenschaftlichen Veröffentlichungen mit entsprechender Begutachtung. Die kanadische Journalistin Donna Laframboise hat nach eigenem Bekunden nur wenige Stunden gebraucht, um eine beeindruckende Liste von im IPCC Bericht zitierten Studien zu erstellen, die nicht wissenschaftliche Ergebnisse, sondern eher die Meinung einer dem umweltpolitischen Kampagnenorganisation widerspiegeln.

  • Allianz and World Wildlife Fund, 2006: Climate change and the financial sector: an agenda for action, 59 pp. [Accessed 03.05.07: http://www.wwf.org.uk/ filelibrary/pdf/allianz_rep_0605.pdf]
  • Austin, G., A. Williams, G. Morris, R. Spalding-Feche, and R. Worthington, 2003: Employment potential of renewable energy in South Africa. Earthlife Africa, Johannesburg and World Wildlife Fund (WWF), Denmark, November, 104 pp.
  • Baker, T., 2005: Vulnerability Assessment of the North-East Atlantic Shelf Marine Ecoregion to Climate Change, Workshop Project Report, WWF, Godalming, Surrey, 79 pp.
  • Coleman, T., O. Hoegh-Guldberg, D. Karoly, I. Lowe, T. McMichael, C.D. Mitchell, G.I. Pearman, P. Scaife and J. Reynolds, 2004: Climate Change: Solutions for Australia. Australian Climate Group, 35 pp. http://www.wwf.org.au/ publications/acg_solutions.pdf
  • Dlugolecki, A. and S. Lafeld, 2005: Climate change – agenda for action: the financial sector’s perspective. Allianz Group and WWF, Munich [may be the same document as "Allianz" above, except that one is dated 2006 and the other 2005]
  • Fritsche, U.R., K. Hünecke, A. Hermann, F. Schulze, and K. Wiegmann, 2006: Sustainability standards for bioenergy. Öko-Institut e.V., Darmstadt, WWF Germany, Frankfurt am Main, November
  • Giannakopoulos, C., M. Bindi, M. Moriondo, P. LeSager and T. Tin, 2005: Climate Change Impacts in the Mediterranean Resulting from a 2oC Global Temperature Rise. WWF report, Gland Switzerland. Accessed 01.10.2006 at http://assets.panda.org/downloads/medreportfinal8july05.pdf.
  • Hansen, L.J., J.L. Biringer and J.R. Hoffmann, 2003: Buying Time: A User’s Manual for Building Resistance and Resilience to Climate Change in Natural Systems. WWF Climate Change Program, Berlin, 246 pp.
  • http://www.panda.org/about_wwf/what_we_do/climate_change/our_solutions/business_industry/climate_savers/ index.cfm
  • Lechtenbohmer, S., V. Grimm, D. Mitze, S. Thomas, M. Wissner, 2005: Target 2020: Policies and measures to reduce greenhouse gas emissions in the EU. WWF European Policy Office, Wuppertal
  • Malcolm, J.R., C. Liu, L. Miller, T. Allnut and L. Hansen, Eds., 2002a: Habitats at Risk: Global Warming and Species Loss in Globally Significant Terrestrial Ecosystems. WWF World Wide Fund for Nature, Gland, 40 pp.
  • Rowell, A. and P.F. Moore, 2000: Global Review of Forest Fires. WWF/IUCN, Gland, Switzerland, 66 pp. http://www.iucn.org/themes/fcp/publications /files/global_review_forest_fires.pdf
  • WWF, 2004: Deforestation threatens the cradle of reef diversity. World Wide Fund for Nature, 2 December 2004. http://www.wwf.org/
  • WWF, 2004: Living Planet Report 2004. WWF- World Wide Fund for Nature (formerly World Wildlife Fund), Gland, Switzerland, 44 pp.
  • WWF (World Wildlife Fund), 2005: An overview of glaciers, glacier retreat, and subsequent impacts in Nepal, India and China. World Wildlife Fund, Nepal Programme, 79 pp.
  • Zarsky, L. and K. Gallagher, 2003: Searching for the Holy Grail? Making FDI Work for Sustainable Development. Analytical Paper, World Wildlife Fund (WWF), Switzerland

Und als besondere Schmankerl fand Laframboise noch zwei Arbeiten, die in den klimawissenschaftlich sicher äußerst bedeutsamen Magazinen Leisure (Freizeit) und Event Management publiziert wurden.

  • Jones, B. and D. Scott, 2007: Implications of climate change to Ontario’s provincial parks. Leisure, (in press)
  • Jones, B., D. Scott and H. Abi Khaled, 2006: Implications of climate change for outdoor event planning: a case study of three special events in Canada’s National Capital region. Event Management, 10, 63-76

Und hier noch von Greenpeace initiierte Studien:

GREENPEACE-GENERATED LITERATURE CITED BY THE 2007 NOBEL-WINNING IPCC REPORT

* Aringhoff, R., C. Aubrey, G. Brakmann, and S. Teske, 2003: Solar thermal power 2020, Greenpeace International/European Solar Thermal Power Industry Association, Netherlands
* ESTIA, 2004: Exploiting the heat from the sun to combat climate change. European Solar Thermal Industry Association and Greenpeace, Solar Thermal Power 2020, UK
* Greenpeace, 2004:http://www.greenpeace.org.ar/cop10ing/SolarGeneration.pdf accessed 05/06/07
* Greenpeace, 2006: Solar generation. K. McDonald (ed.), Greenpeace International, Amsterdam
* GWEC, 2006: Global wind energy outlook. Global Wind Energy Council, Bruxelles and Greenpeace, Amsterdam, September, 56 pp., accessed 05/06/07
* Hoegh-Guldberg, O., H. Hoegh-Guldberg, H. Cesar and A. Timmerman, 2000: Pacific in peril: biological, economic and social impacts of climate change on Pacific coral reefs. Greenpeace, 72 pp.
* Lazarus, M., L. Greber, J. Hall, C. Bartels, S. Bernow, E. Hansen, P. Raskin, and D. Von Hippel, 1993: Towards a fossil free energy future: the next energy transition. Stockholm Environment Institute, Boston Center, Boston. Greenpeace International, Amsterdam.

* Wind Force 12, 2005: Global Wind Energy Council and Greenpeace,http://www.gwec.net/index.php?id=8, accessed 03/07/07

Kritik am IPCC reißt nicht ab

So sieht sie also aus, die Datenbasis für den Zustandsbericht unserer Welt, erstellt von den 3000 besten (oder vielleicht nur bestbezahlten) Wissenschaftlern, die der Planet je hervorgebracht hat.  Und immer neue Fragen rund um das IPCC tauchen auf. So wurde als letztes bekannt gegeben, dass auch die Aussagen des Weltklimarates bezüglich der Gefahr des Klimawandels für den Regenwald keine vernünftige Wissenschaftliche Basis zu haben scheinen.  Nach Klimagate, Pachaurigate und Gletschergate kommt nun Amazonasgate.

Wenn man bedenkt, dass aufgrund der Ergebnisse dieses Reports politische Entscheidungen getroffen werden, die das Verschieben von tausenden Milliarden Euro beinhalten und letztlich zu einem totalen Umbau unseres Wirtschaftssystems führen sollen, dann kann einem nur Angst und Bange werden.

Von Rudolf Kipp EIKE zuerst erschienen bei Science Sceptical

Die Potsdamer vom PIK kommentieren das so::

Der Klimawandel ist ein dramatisches, aber lösbares Problem. Seine Bewältigung ist eine Feuertaufe für die im Entstehen begriffene Weltgesellschaft.“
Stefan Rahmstorf, Hans-Joachim Schellnhuber

Stefan Rahmstorf / Hans J. Schellnhuber, Der Klimawandel 
Ein Buch von 144 Seiten, mit dem Werbetext:

Zwei renommierte Klimaforscher geben einen kompakten und verständlichen Überblick über den derzeitigen Stand unseres Wissens und zeigen Lösungswege auf. »

mit Dank an Krischna Gans für dies Fundstücke

ÄHNLICHE BEITRÄGE (BETA):




Gletscherrückgang in den Alpen – Außergewöhnliche Bedrohung oder natürliche Schwankung?

Wer kennt sie nicht, die Meldungen und Hiobsbotschaften über die alpinen Gletscherrückgänge, wodurch ganze Ökosysteme vom Untergang bedroht wären, die Wasserversorgung von abertausenden von Menschen in Frage gestellt wird und dem Touristikzweig der Wirtschaft, den Garaus machen würde. Meist wird als Vergleich des Gletscherrückgangs die Gletscherausdehnung von 1850, oder 1970 herangezogen (wenn, wie bei den Himalaya-Gletschern traurige Gewissheit wurde, nicht gänzlich schlampig gearbeitet wird). Dies nicht ohne Grund. 1850 lag am Ende der kältesten Epoche der letzten 2.000 Jahre, die in der Wissenschaft unter dem Namen “Kleine Eiszeit“ bekannt ist. Sie begann im 15. Jahrhundert und dauerte bis zur Mitte des 19. Jahrhunderts. Für unser kulturelles Leben hat sie eine Vielzahl von Highlights in der Dichtung (Fallersleben), Malerei (Bruegel) und Musik hervorgebracht. So verdankt die Außergewöhnlichkeit der Stradivarigeige der “Kleinen Eiszeit“ ihre Existenz. Aufgrund der kalten Jahreszeiten hatte das Holz eine andere Wachstumscharakteristik, was ihm andere Eigenschaften verlieh und den Musikinstrumenten ihre Einzigartigkeit gab. Da heute dieses Holz nicht mehr in der gleichen Art wächst, lässt sich eine Stradivarigeige auch nicht nachbauen.

Die Abbildung 1 zeigt exemplarisch zwei Gemälde, in denen die Künstler die Kleine Eiszeit festhielten.

 

"Winterlandschaft", Pieter Bruegel der Ältere 1565 und rechts, A. Hondius, Thames-1677, London Museum

Zurück zur Gegenwart, die folgende Abbildung zeigt den alpinen Gletscherrückgang, bezogen auf die Vergleichsjahre 1850 und 1970. Es ist schon bemerkenswert, mit welchen Tricks vorgegangen wird, um eine überproportionale Gletscherschmelze zu belegen. Wie bereits geschildert, lag 1850 maximale Eisentwicklung für die letzten Jahrtausende vor und auch 1970 lag in einer Kaltphase mit ausgiebiger Gletscherentwicklung, wie die Abbildung 3 belegt. Die Älteren unserer Leser kennen noch aus den 1970-Jahren den wissenschaftlichen und politischen Wirbel um die anstehende drohende Eiszeit. Sie haben richtig gehört, damals glaubte Politik, Wissenschaft und Medien (http://www.mcculloughsite.net/stingray/photos/the_cooling_world_newsweek_2-thumb-500×646.jpg) nicht an eine drohende Erwärmung, sondern an eine drohende Eiszeit für die nächsten Jahrzehnte und teilweise die selben Wissenschaftler, die heute die Tageszeitungen mit ihren Horrorszenarien schmücken, warnten damals vor der drohenden Eiszeit.

 

Die Abbildung 2 zeigt den prozentualen alpinen Gletscherrückgang für die Jahre 1970 und 2000, bezogen auf das Jahr 1850, Quelle: Geographisches Institut der Universität Zürich, Dr. Michael Zemp, 2006.

Anmerkung:

Vielfach wird angenommen, dass die heutigen Gletscher der Alpen oder Skandinaviens Überbleibsel der letzten Eiszeit sind. Dies ist aber falsch. Europa war auf dem Höhepunkt der Nacheiszeit (Holozän) vor ca. 7.000 Jahren völlig eisfrei. Die meisten europäischen Gletscher sind erst danach entstanden und somit ziemlich jung und höchstens 6.000 Jahre alt. Ihr Umfang schwankte in den letzten Jahrtausenden zudem stark.

Und dazu die Temperaturentwicklung der letzten 1.100 Jahre.

Die Abbildung 3 zeigt den Temperaturverlauf der letzten 1.100 Jahre, ergänzt nach Sunday Telegraph (Lord Christopher Monckton) vom 05.11.2006.

Die Schwankungen der Temperatur lassen erwarten, dass auch die alpine Gletscherentwicklung zyklischen, natürlichen Schwankungen unterliegt und genau dies, hat der Gletscherforscher, Prof. Slupetzky (Uni Salzburg) durch seine Untersuchungen der österreichischen Gletscher herausgefunden, was die Abbildung 4 belegt. Zu dessen Untersuchungsergebnis habe ich Ihnen die zyklischen Schwankungen der AMO (Atlantic Multidecadal Oscillation), einer Schwankung der atlantischen Oberflächentemperaturen, durch die unser Wetter in Mitteleuropa maßgeblich bestimmt wird, weil sie u.a. die Verdunstungsrate über dem Atlantik und den Energietransport bestimmt, aufgetragen, sowie die atmosphärische CO2-Entwicklung nach Mauna Loa.

Die Abbildung 4 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß*) folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

*) Bevor hier anhand einzelner Gletscher eingewendet wird, diese wären seit 100 Jahren kontinuierlich geschrumpft – alpine Gletscher werden in vier Kategorien eingeteilt:

A: >10 km

B: 5 bis <10 km

C: 1 bis  5 km

D < 1km

Die Gletscher Kategorie D sind relativ stationär. Es gibt zwar Jahre, in denen sie Verluste erleiden, sie stoßen aber immer wieder vor und behalten ihre Größe bei. Würden die IPCC-Vorhersagen zutreffen, müsste sie zuerst verschwinden. Es ist deshalb auch unsinnig, von einem alpinen Gletschersterben zu sprechen. Dieses findet nicht statt.

Gletscher der Kategorie A, wie z.B. der sehr gut untersuchte Großer Aletsch in der Schweiz, folgen auf Grund Ihrer Größen- also Massenträgheit zeitverzögert Warm- bzw. Kaltphasen („glätten“ sozusagen Dekaden-Warm-, bzw. Kaltphasen) und zeigen somit seit Beginn der wärmeren Periode ab dem Ende der Kleinen Eiszeit um 1850 eine schrumpfende Tendenz, während die massenärmeren Gletscher Temperaturentwicklungen schneller folgen. Aber auch bei Gletschern der Kategorie A ist der Gletscherschwund im 20. Jahrhundert nichts Außergewöhnliches, wie die Untersuchungen von Wilfried Haeberli und Hanspeter Holzhauser (Uni Zürich) zeigen.

Die Abbildung 5 zeigt die Gletscherentwicklung Großer Aletsch für die letzten 2.000 Jahre. Erklärung: Rote Balken stehen für Rückzug und blaue für Vorstoß. Unten = Rückzug, Oben = Vorstoß. Die rechte Skala zeigt die Gletscherbewegung in Metern und die linke die zugehörigen Jahreszahlen des aktuellen Gletscherrückgangs. Geglättet wurde über 50 Jahre. Deutlich ist zu erkennen, dass es Zyklen gibt, in denen der Gletscher wächst und schrumpft. So gab es in den letzten 2.000 Jahren drei in etwa gleich starke Minima: Heute, im 8. und im 1. Jahrhundert (dieses gar noch stärker als heute). Der heutige Rückzug begann um 1850.

Zurück zur Abbildung 4

Da die AMO in direkter Weise von der Sonnenaktivität abhängt, ist es nicht verwunderlich, dass die alpine Gletscherentwicklung der Intensität der Sonneneinstrahlung folgt. Zu diesem Ergebnis kamen Forscher der ETH Zürich, die die Arbeiten von Prof. Slupetzky, 2005 untermauern (http://www.ethlife.ethz.ch/archive_articles/091214_gletscherschwund_su). “Rasante Gletscherschmelze in den 1940ern“. Die Untersuchungen zeigen, dass in den 1940-Jahren die Schweizer Gletscher stärker schmolzen, als dies gegenwärtig der Fall ist. Als Datenquelle dienten den Forschern die seit fast 100 Jahren (die Messungen begannen im Jahr 1914) vorliegenden durchgehenden Messungen an den Gletschern, Claridenfirn, Großer Aletsch und dem Silvretta.

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher auf die geringere Aerosolkonzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höherer Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, die die vorherige Abbildung zeigt.

Die ETH-Forscher ermittelten eine um 18 W/m2 höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von ca. 1,5 W/m2, welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, ganz enorm ist. Die erhöhte Sonneneinstrahlung in den 1940-Jahren deckt sich mit den Messungen der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ und in Stockholm. Es war demnach in weiteren Teilen Europas eine erhöhte Solarstrahlung zu messen.

 

Die Abbildung 6 (http://wattsupwiththat.com/2009/06/) zeigt die bodennahe solare Einstrahlung in Stockholm seit 1923. Die blaue Linie die geglättete 5-Jahreskurve.

Die Abbildung 7 zeigt die Änderung der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ seit 1940. Der Rückgang ist verbunden mit der Phase des Global Cooling und der Wiederanstieg in den 1980-Jahren mit dem Anstieg der bodennahen Temperaturen. Seit 1980, dem Zeitpunkt, als die Temperaturen zu steigen begannen, ist demnach ein 10%iger-Anstieg der Globalstrahlung zu verzeichnen.

Anhand der Abbildung 8 möchte ich Ihnen die solare Aktivität im Vergleichzeitraum, sowie die Durchlässigkeit der Atmosphäre zeigen.

 

Die Abbildung 8 links, Quelle: British Geological Survey, zeigt die magnetische- und Fleckenaktivität der Sonne im Zeitraum von 1867 – 2007. Im Zeitraum von 1930 – 1960 (grün hinterlegt) ist ein deutlicher Anstieg in der magnetischen, als auch in der Fleckenaktivität der Sonne erkennbar, was mit dem Zeitraum der positiven AMO und des mit ihr in Verbindung stehenden Gletscherrückgangs (Abbildung 4, übereinstimmt. Die Abbildung 8 rechts zeigt den SO2-Aerosolgehalt in der Atmosphäre im Zeitraum von 1880 bis 2000, Quelle: David Ian Stern, Australian National University, Centre for Resource and Environmental Studies.

Für die atmosphärische Aerosolentwicklung ist der atmosphärische Schwefeldioxid-, bzw. Sulfat-Gehalt (bildet sich über Wasser und SO2) wesentlich. Der unter dem Begriff “Global Cooling“ bekannte Temperaturrückgang durch zusätzliche Partikel in der Atmosphäre basiert auf SO2 und Rußpartikel. Den Einfluss von SO2 auf die globalen Temperaturen zeigen die Auswirkungen des Vulkanausbruchs Pinatubo in 1991, durch den große Mengen SO2 in die Atmosphäre gelangten, wodurch die globalen Temperaturen für 2 Jahre um ca. 0,6°C zurückgingen.

In der Abbildung 8 rechts ist darüber hinaus die Epoche des Global Cooling (rot umrundet) festgehalten – Anstieg der Aerosolpartikel (vorrangig SO2 und Rußpartikel) mit deutlich zurückgehender Sonnenaktivität – einem schwachen solaren 20. Zyklus. Auch in der Phase des Global Cooling, die Prof. Stern in die Zeitspanne von 1940 – 1980 definierte, wurde der Abkühlung durch die beiden starken solaren Zyklen 18 und 19, gegen Ende der 1940- und 1950-Jahre gegen gewirkt, wie die Abbildung 9 zeigt.

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Tempe

raturkurve bis zum Ende des 20. Jahrhunderts, nach den Daten von Briffa, in der archivierten und publizierten (abgeschnittenen) ­Version (schwarz) und der komplette Datensatz (rot). Es ist die Temperaturreihe, die durch die Manipulationen von Jones (Climategate) Berühmtheit erlangte. Hier in der ungekürzten Fassung. Man erkennt deutlich den Temperaturrückgang, der versteckt werden sollte, Quelle: Rudolf Kipp – EIKE. Deutlich ist erkennbar, dass die starken solaren Zyklen 18 und 19 (blaue Linien, vgl. mit Abbildung 7 links) einen Temperaturpeak nach oben auslösten und dem um ca. 1940 beginnenden Rückgang der Temperaturen entgegenwirkten.

Auch hier, wie beim Temperaturanstieg mit der verbundenen Gletscherschmelze, setzte der Temperaturrückgang erst in Verbindung mit der Sonnenaktivität ein und zwar mit der deutlich nachlassenden Sonnenaktivität im 20. Sonnenzyklus, als in den 1970-Jahren das Gespenst der drohenden Eiszeit umherging und dieselben Forscher, die seinerzeit grandios danebenlagen, wie z.B. Prof. Stephen Schneider (Schneider S. & Rasool S., "Atmospheric Carbon Dioxide and Aerosols – Effects of Large Increases on Global Climate", Science, vol.173, 9 July 1971, p.138-141), heute einer der einflussreichsten IPCC-Leadautoren, die passend zur solaren Temperaturentwicklung, wieder die abenteuerlichsten Hypothesen aufstellen, diesmal in Verbindung mit anthropogenen Treibhausgasen, die eine Erwärmung herbeiführen würden. Seinerzeit gingen die Herren der These nach, es gäbe eine globale Abkühlung – es drohe eine kommende Eiszeit!

Erst als die solare Aktivität in den 1960-Jahren zurückging und in den 1970-Jahren niedrig blieb, „rauschten“ die Temperaturen deutlich in den Keller, um mit Beginn der solaren Aktivität um 1980 (hoher 21. Sonnenzyklus), erneut anzusteigen. Wie wir heute wissen, dauerte der Temperaturanstieg bis ca. 2003, synchron zur solaren Aktivität. In 2003 hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum (http://wetterjournal.wordpress.com/2009/07/14/). Die Presse war seinerzeit voll mit Meldungen über sog. Hitzetote.

Einige werden einwenden, dass anhand einschlägiger Sonnenaktivitätskurven die Sonnenaktivität in den letzten 30 Jahren nicht zugenommen hätte. Dies ist jedoch falsch. So meldete z.B. die Max Planck-Gesellschaft in 2004 “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute.“ Für die solare Aktivität wird international meist der sog. TSI (Total Solar Irradiance) herangezogen (Abbildung 10).

Die Abbildung 10 zeigt den TSI im Zeitraum 1979 bis Januar 2010 (Quelle: http://www.pmodwrc.ch/pmod.php?topic=tsi/composite/SolarConstant). In der Zeile oben sind die verschiedenen Messsysteme, mit denen der TSI aufgenommen wird (wurde) genannt. So steht z.B. ACRIM für Active Cavity Radiometer Irradiance Monitor. Es ist zu sehen, dass im Messbereich des TSI keine Aktivitätssteigerung der Sonne im Betrachtungszeitraum erkennbar ist, wohl aber in der Abbildung 11 und der Abbildung 8 links.

Beim TSI handelt es sich denn auch um eine Mogelpackung, bzw. um eine irreführende Bezeichnung, da das Messsystem des Satelliten, mit dem der TSI aufgenommen wird, lediglich den Wellenlängenbereich des solaren Energiespektrums von 200 nm – 2.000 nm, also UVB – Infrarot aufnimmt (dafür sensibilisiert ist). Von “Tatal“ kann also keine Rede sein! Der überwiegende spektrale Sonnenanteil wird gar nicht aufgezeichnet, insbesondere nicht der Anteil, der zwischen solarem Minimum und solarem Maximum am meisten variiert. So variiert die solare Aktivität im sichtbarem Bereich lediglich um <1%, im UVB-Bereich (205 nm) um ca. 7%, bei 150 nm bereits um 15%, im EVU (<150 nm) sogar um 35% und im Röntgenbereich gar um das 100-fache. Über die kosmische Strahlung*) (Svensmark-Effekt) und die Stratosphäre, übt die Sonne jedoch auch in dem nicht aufgezeichneten Energiebereich indirekt, bzw. direkt Einfluss auf das irdische Wettergeschehen und somit auf das Klima.

*) Die solare Aktivität im Hauptsonnenzyklus, dem de Vries/Suess-Zyklus lässt sich denn auch nicht im TSI erkennen, sondern am 14C-Gehalt der Pflanzen (Abbildung 11).

 

Die Abbildung 11 zeigt über die letzten 1.200 Jahre den de Vries/Suess-Zyklus und die mittelalterliche Warmperiode, sowie die Kleine Eiszeit mit dem Wolf- Spörer- und Maunder-Minimum, Quelle: (http://www.co2science.org/articles/V11/N23/EDIT.php).

In der Abbildung 12 habe ich Ihnen die Maxima im de Vries/Suess-Zyklus zu der aus 14C gewonnenen Proxy-Temperaturkurve eingetragen.

Die Abbildung 12 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden fallen jeweils mit dem Maximum des de Vries/Suess-Zyklus zusammen und die Kälteperioden, wie z.B. das Spörer Minimum mit dessen Minimum.

Nicht nur die Gletscherentwicklung der Alpen, sondern auch die arktische Eisbedeckung wird durch den Hauptsonnenzyklus, den de Vries/Suess-Zyklus moderiert, wie die Abbildung 13 zeigt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 13, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries/Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries/Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Hohe solare Aktivität, verbunden mit geringer Aerosolbildung (klare Luft) sind demnach die Ursachen für den starken Gletscherrückgang in den 1940-Jahren. Da die Gletscher im Zeitraum davor wuchsen und die Luft noch klarer war, bleibt für den Gletscherrückgang in den 1940-Jahren einzig (in Bezug der davor herrschenden Gletscherausdehnung) die starke solare Aktivität übrig, sowie wir dies bis zu den letzten Jahren ebenfalls hatten.

Wie bereits eingangs erwähnt, waren die Alpen in früheren Jahren weitgehend eisfrei. Dies belegen Holzfunde in heutigen Gletscherregionen der Alpen von Dr. Christian Schlüchter. Dr. Schlüchter ist Professor für Quartär- und Umweltgeologie an der Universität Bern und Lehrbeauftragter der ETH Zürich.

Er fand in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moors. Baumreste wurden einem Arvenstamm (alpenländischer Nadelbaum) zugeordnet und auf 4.920 ± 60 Jahre vor heute datiert. Die Moorreste datieren auf 2.100 ± 50 Jahre vor heute. Die Fundstücke sind außergewöhnlich, da es Bäume und insbesondere ein Moor nur an Stellen gegeben haben kann, wo kein dauerhaftes Eis vorhanden ist und die Baumgrenze deutlich höher lag als heute. Aus den vorgenommenen Datierungen ergab sich, dass in den letzten Jahrtausenden etwas mehr als 50% der Zeitspanne die Gletscher deutlich kürzer als waren als heute.

Prof. Schlüchter: “Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.“ Dies erklärt auch, warum in den sonst sehr detaillierten Beschreibungen der römischen Chronisten kaum ein Wort über die Gletscher zu finden ist. Als Hannibal 218 v.Chr. mit seinen Kriegselefanten (im Winter!!) die Alpen überquerte und ins römische Kernland einfiel, waren die Alpenpässe weitgehend eisfrei. Es war die Zeit des römischen Klimaoptimums. Die Abbildung 14 links zeigt, wie es nach Rekonstruktionen seinerzeit dort ausgesehen hat.

Die Abbildung 14 links zeigt den Sustenpass (Passhöhe 2.224 ü. d. M.), wie er nach den Untersuchungen von Schlüchter zur Römerzeit vor etwa 2.000 Jahren ausgesehen hat. Der Steigletscher hat sich auf die Höhe der Tierberglihütte (2.795 m) zurückgezogen, die Baumgrenze lag deutlich höher als heute. Quelle „Die Alpen“/ Zeichnung Atelier Thomas Richner nach Vorlage Christoph Schlüchter. Kopiert aus ETH-Zürich, Grüne Alpen statt ewiges Eis“, 14.02.2005 (http://archiv.ethlife.ethz.ch/articles/tages/gruenealpen.html). Die rechte Abbildung zeigt den Gletscher um 1993 und seine Ausdehnung 1856 (nach der “Kleinen Eiszeit“) und 1922.

Anhand der Abbildung 15 wird deutlich, dass die Torf- und Holzfunde mit der Temperaturentwicklung im Holozän (bezeichnet die Zeitspanne seit ca. 11.000 Jahren, kleine Abbildung) synchron verlaufen und es Zeiten gab, in denen es wesentlich wärmer war als heute, Quelle: (http://klimakatastrophe.files.wordpress.com/2008/09/gletscherfunde2.jpg) nach Joerin et al. 2006 (Uni Bern).

Die beiden folgenden Bilder in der Abbildung 16 zeigen, wie ein Alpendorf im 19. Jahrhundert von sich ausbreitenden Eismassen begraben wird, dass Klima davor also zyklisch milder war (vgl. mit Abbildung 4), Quelle: ZDF, "Klima – Das Risiko", Joachim Bublath, 22.10.2003 (http://www.solarresearch.org/zdf_bublath_20031022.htm).

Zusammenfassend ist festzustellen, dass der heutige Gletscherrückgang in den Alpen nichts Außergewöhnliches darstellt und die Gletscherentwicklung zyklischen Phasen unterliegt, die von der Sonne gesteuert werden. Ein Einfluss von Treibhausgasen wie z.B. CO2 oder menschliche Einflüsse sind nicht vorhanden.

 Raimund Leistenschneider – EIKE

Related Files




ClimateGate 20: Auch Herr Schellnhuber wusste von nichts….

Video 3-Sat Zusammenfassung eines Interviews mit Prof. Dr. Schellnhuber z.T. Verschwinden der Himalya Gletscher. Aufgezeichnet von Solarkritik

Dabei spielt der deutsche Multi-Funktionär und politische Kader-Schmied Schellnhuber in IPCC- und Climategate-Kreisen eine herausragende Rolle. Sollte er tatsächlich nicht gemerkt haben, dass Hiobsbotschaften über das baldige Verschwinden der Himalaya-Gletscher auf einem reinen Gerücht basierten? Wenn das so sein sollte, so wirft das kein gutes Licht auf die Forschung, die da angeblich in Potsdam betrieben wird. Fest steht jedenfalls, dass Schellnhuber sich das Himalaya-Märchen begeistert zu eigen machte. Zitat: ”Wir sind in der Lage, mit Modellen zu erkennen, dass bei fortschreitender Erwärmung in 100 Jahren alle Himalaya-Gletscher verschwunden sein dürften.” *

Welche Modelle sollen das denn sein? Diese Berechnungen würde man jetzt mal gerne sehen. Wie sich inzwischen herausgestellt hat, ist es für Glaziologen auf den ersten Blick völlig ausgeschlossen, das so etwas passiert. Danke an den Kollegen Rolf Degen für den Hinweis auf das Zitat.

Aus ACHGUT von Dirk Maxeiner

* Diese Aussage unterstützt der forsche Forscher Schellnhuber kürzlich im Bayerischen Rundfunk (BR5) und schiebt dieses "katastrophale" Abschmelzen auf den Rußausstoss chinesischer Kohle-Kraftwerke. Siehe Audiodatei im Anhang

Was es mit den Fähigkeiten zu wissenschaftlicher Arbeit des Prof. Schellnhuber noch so auf sich hat sehen Sie hier!

Lesen Sie auch weitere Details zum Werdegang der Himalya Gletscher Ente hier

Related Files




Ökostromnetz in der Nordsee – Innovation auf dem Strommarkt ?

Die Windleistungseinspeisung lag insgesamt im Jahr 2009 zwischen 70 MW und 22.000 MW;  d.h. im Schnitt bei 1.750 Volllaststunden. Da auch auf der Nordsee manchmal Flaute herrscht oder  bei Orkanböen die Anlagen aus Sicherheitsgründen außer Betrieb genommen werden müssen, muss  bei ungeminderter Versorgungssicherheit nahezu die gesamte Leistung durch konservative 

Kraftwerke abgesichert werden. Demnach sind für die unsteten Leistungen auf See zusätzlich  rd. 20 Kernkraftwerke oder 40 Kohle-/GUD-Kraftwerke oder 80 Gaskraftwerke oder einige hundert Biomassekraftwerke als Schattenkraftwerke in betriebsbereitem Zustand erforderlich. 

Dafür wird in der Nordsee gewühlt, um auf dem Meeresgrund und im Schutz der UNESCO  stehendem Wattenmeer für rd. 30 Mrd. Euro Kabel zu verlegen. Hier wird es aber komplizierter als  von den Politikern gedacht. Vor allem weil die Superleitungen mit der so genannten Hochspannungs -Gleichstromübertragungstechnik (HGÜ) arbeiten, werden aufwendige Umspannwerke benötigt, um die in Europa üblichen Wechselströme in die verschiedenen Spannungen umzuwandeln. Die Stromleitungen in den beteiligten Ländern haben auch unterschiedliche Frequenzen. Viel mehr werden neue Überlandleitungen benötigt, um die wachsenden Strommengen der Wind- Industrieanlagen in Norddeutschland in die großen Verbraucherzentren im Süden und Westen des Landes zu transportieren. 

2014 soll in England die staatliche Subventionierung auslaufen, schreibt die WiWo. Bleibt sie nicht erhalten, droht die Spannung aus dem Megaprojekt zu entweichen. Wird dann die Windkrafteuphorie nur noch eine Fußnote der europäischen Wirtschaftgeschichte sein ? 

Weder die Energiewirtschaft noch unsere Politiker sagen uns Verbrauchern, was das alles uns eines Tages kosten wird. Wir haben schon heute zu viel Strom und um ihn loszuwerden müssen wir draufzahlen. D.h. der Verbraucher muss jetzt schon einmal für die Erzeugung – und dann noch einmal für die Entsorgung der Überproduktion bezahlen. 

Ein Irrsinn ! Mit Innovation hat nicht speicherbare (Sonnen + Wind-) Energie nichts zu tun; hier wird der Verbraucher vorsätzlich und bewusst  „verschaukelt“. Aus gesellschaftspolitischer wie aus Wirtschaftspolitischer Sicht ist die schwarz/gelbe Regierung eher eine sozial/liberale Koalition. Der Wähler hat das nicht gewollt. 

VGL Verband für Gesundheits- & Landschaftsschutz e.V.




ClimateGate 19: Sind auch die Temperaturdaten der USA gefälscht?

Das Ergebnis seiner Analysen ist dann auch eindeutig nicht dazu geeignet, uns in Sicherheit zu wiegen. Ganz im Gegenteil. In der am letzten Donnerstag veröffentlichten Presseerklärung heißt es, dass 2009 das bisher zweitwärmste Jahr seit Beginn der Temperaturaufzeichnung sei. Wärmer wäre nur 2005 gewesen. Auch sei das vergangene Jahrzehnt das bislang wärmste seit Beginn der regelmäßigen Messungen.

GISS-Direktor Hansen will auch trotz der seit etwa 10 Jahren stagnierenden bis fallenden Globaltemperaturen nichts von einem Stoppen der Erderwärmung wissen. Schließlich genügt bereits ein einfacher statistischer Trick, um diese Phase aus den Daten verschwinden zu lassen:

“Wenn wir die Temperatur über 5 oder 10 Jahre mitteln, um die Variabilität zu minimieren, finden wir dass die globale Erwärmung unvermindert weitergeht.”

“When we average temperature over five or ten years to minimize that variability, we find global warming is continuing unabated.”

Wobei man erwähnen muss, dass die Analyse des GISS sich nicht mit denen anderer Institute deckt. So war das vergangene Jahr nach Daten des National Climate Data Centers (DCDC) das 5.-wärmste. Die Satellitenmessungen von UAH und RSS sahen 2009 nur auf Rang 6 beziehungsweise Rang 7. Daher mag man sich fragen, woher diese Unterschiede stammen, und wie verlässlich die Methoden zur Ermittlung der Globaltemperatur überhaupt sind.

Genau diese Frage haben sich in den USA ein Computerprogrammierer und ein zertifizierter Meteorologe auch gestellt. Über deren Ergebnisse berichtete der US-Wettermann John Coleman in seiner bemerkenswerten Sondersendung “Global Warming: The Other Side“. Sehen Sie hier den vierten Teil der Reportage mit deutschen Untertiteln:

Global Warming: The Other Side – Teil 4 from Science Skeptical on Vimeo.

Die Vorwürfe der beiden GISS-Kritiker, des Programmierers E. Michael Smith und des Meteorologen Josph D’Aleo, lassen sich in vier Punkten zusammenfassen.

  1. Die Computerprogramme zur Berechnung der Durchschnittstemperaturen wurden massiv verändert. Dadurch ist das Endergebnis nicht mehr der Durchschnitt von wirklichen Temperaturen an realen Orten. Stattdessen nutzen die Forscher Daten von Orten, die hunderte Kilometer entfernt sein können und wenden sie auf ein anderes Gebiet an.
  2. Die Anzahl der Messstationen ist dramatisch reduziert worden, von etwa 6000 bis in die späten 80er Jahre auf heute etwas mehr als 1000.
  3. Dabei sind vor allem solche Stationen eliminiert worden, die in kühleren Gegenden, in höheren Breiten oder höheren Höhen lagen, also solche, deren Temperatur niedriger ist.
  4. Die Temperaturen selbst wurden durch sogenannte Homogenisierung verändert, einem Prozess, der fast ausschließlich zu höheren Temperaturen zu führen scheint.

Joseph D’Aleo hat eine ausführliche Analyse der Ergebnisse seiner Studien zusammengestellt. Sie können sie auf seiner Homepage Icecap.us herunterladen. Weiters Details dazu bringt die kanadische National Post hier. Eine sehr guten Artikel über Klimagate von Joseph D’Aleo finden Sie hier.

In dem äußerst empfehlenswerten Blog von E. Michael Smith gibt es viele weiter Details zu den Methoden, mit denen die Nasa die Temperaturdaten auf Erwärmung trimmt.

In den deutschen Medien hat dieser Skandal bisher kaum stattgefunden. Lediglich beim immer gut und aktuell informierenden Dirk Maxeiner auf der Achse des Guten und im Zeit-Leserartikel-Blog von “Schneefan” wurde bisher darüber berichtet.

Die Ergebnisse der Studien von Smith und D’Aleo sind zu umfangreich, um sie hier in wenigen Worten hinreichend zu behandeln. Wir werden daher in den nächsten Tagen einen mehr detaillierten Artikel zu der Affäre um die Temperaturdaten der Nasa schreiben. Bis dahin möchten wir Ihnen die Empfehlung von US-Wettermann und Begründer des “Weather Chanel”, John Coleman, mit auf den Weg geben: :

“Wenn Sie eine Nachricht hören, dass herausgefunden wurde, dass ein bestimmter Monat oder eine Jahreszeit die wärmste in der Geschichte war,  oder dass fünf der wärmsten Jahre seit Beginn der Aufzeichnung im letzten Jahrzehnt lagen – glauben Sie es nicht.”

 Rudolf Kipp (zuerst erschienen in Science Sceptipal Blog)

Nachtrag: Gerade berichtet die Welt:

UMWELTPROGNOSEN

Weltklimarat gerät erneut ins Zwielicht

25. Januar 2010, 10:04 Uhr

Gerade erst musste der UN-Ausschuss peinliche Fehler bei der Prognose zum Abschmelzen der Himalaya-Gletscher eingestehen, da gerät er erneut in Erklärungsnot: Trotz wissenschaftlicher Zweifel hatte er bereits im Jahr 2007 behauptet, dass die steigenden Kosten durch Naturkatastrophen mit dem Klimawandel zusammenhängen. Details hier.…….

ÄHNLICHE BEITRÄGE (BETA):