Forscher: Ozon-Zerstö­rung, nicht Treibhaus­gase, ist die Ursache für globale Erwärmung

[*Im Original steht die Abkürzung CFC = Chlorofluorocarbon. Ich habe dafür in dieser Übersetzung die bei uns allgemein bekannte Abkürzung FCKW verwendet, in der Hoffnung, dass sie mit CFC identisch ist. Anm. d. Übers.]

Innerhalb von drei bis fünf Jahren, also der Zeit, von der wir wissen, dass FCKW die Stratosphäre erreicht, begannen die jährlichen mittleren globalen Temperaturen zu steigen. James Lovelock fand mittels seines neuen Elektronen-Detektors [electron capture detector] bedeutende Mengen von FCKW-11 in allen 50 Luftproben, die er von Pol zu Pol genommen hatte. Angeregt durch Lovelocks Arbeiten entdeckten Mario Molina und Sherwood Rowland im Jahre 1974, dass wenn die FCKW die Stratosphäre erreichen, sie durch die ultraviolette Strahlung der Sonne aufgebrochen werden, wobei ultimativ Chloratome freigesetzt werden. Ein Chloratom kann 100.000 Ozonmoleküle zerstören, und zwar mittels katalytischer Prozesse, die besonders effektiv sind in polaren Stratosphären-Wolken.

Ozon bildet sich, wenn die ultraviolette C-Strahlung ein Sauerstoff-Molekül in zwei Sauerstoff-Atome aufspaltet, welche dann mit anderen Sauerstoff-Molekülen das Ozon (O3) bilden. Ultraviolette B-Solarstrahlung verwandelt das Ozon wieder zurück in ein Sauerstoff-Atom und ein Sauerstoff-Molekül. Dieser Ozon-Sauerstoff-Zyklus, bekannt unter der Bezeichnung Chapman-Zyklus, ist kontinuierlich, so dass ein Ozon-Molekül normalerweise nur eine Lebensdauer von 8,3 Tagen hat. Die Ozonschicht, ca. 20 bis 30 km über der Erdoberfläche, ist der Bereich der Atmosphäre, in denen die günstigsten Bedingungen für den Ozon-Sauerstoff-Zyklus herrschen.

Wenn ein Molekül wie Sauerstoff oder Ozon zerfällt, fliegen die molekularen Bruchstücke mit hoher Geschwindigkeit auseinander, wobei sie die gesamte Bindungsenergie in kinetische Energie umwandeln. Die mittlere kinetische Energie aller Atome und Moleküle in einem Gas ist der kinetischen Theorie der Gase zufolge direkt proportional zur Temperatur eines Gases. Folglich zeigen hohe Ozon-Konzentrationen Regionen einer lokalen Erwärmung an. Dass diese Wetter und Klima beeinflussen, wurde erstmals von Gordon Dobson während der zwanziger Jahre des vorigen Jahrhunderts beobachtet.

Wenn Ozon zerfällt, wird in der Ozonschicht weniger Ultraviolett-B absorbiert, wodurch die Ozonschicht abkühlt. So wurde es von 1970 bis 1998 beobachtet. Mehr Ultraviolett-B erreicht dann die Erdoberfläche, wo es Dutzende Meter tief in die Ozeane eindringt und folglich sehr effizient absorbiert wird. Zunehmendes Ultraviolett-B sorgt auch in den bodennahen Luftschichten für Ozon-Verschmutzung, was die Luft in Industriegebieten erwärmt. Dies erklärt, warum die globale Erwärmung von 1970 bis 1998 auf der Nordhemisphäre doppelt so stark war wie auf der Südhemisphäre, enthält erstere doch 90% der Weltbevölkerung. Der Ozonzerfall ist in den Polargebieten im Winter am stärksten. Dies erklärt, warum die stärkste, von 1970 bis 1998 beobachtete Erwärmung in den Polargebieten erfolgte. Dieses Phänomen ist bekannt unter der Bezeichnung polar amplification.

Im Jahre 1985 entdeckten Joe Farman, Brian Gardiner und Jon Shanklin, dass die Zerstörung der Ozonschicht über der Antarktis bis zu 70% im Frühjahr der Südhalbkugel ausmacht. Wissenschaftler erkannten auf einmal, dass der Ozonzerfall ein viel größeres Problem war als ursprünglich gedacht. Innerhalb von zwei Jahren entwickelten Politiker und Wissenschaftler das Montreal-Protokoll, in welchem der Stopp der FCKW-Produktion ab Januar 1989 gefordert wurde.

Im Jahre 1993 endete die FCKW-Zunahme in der Atmosphäre. Bis 1995 war die Zunahme des Ozon-Zerfalls beendet. Ab dem Jahr 1998 hörte der globale Temperaturanstieg auf. Die Ozonschicht bleibt zerfallen, die Ozeane erwärmen sich weiter, Eis schmilzt weiterhin [?], der Meeresspiegel steigt weiter – aber die globalen Temperaturen änderten sich von 1998 bis 2013 kaum. Das war auch von 1945 bis 1970 der Fall. Folglich scheinen die Menschen aus Versehen die Erwärmung ab 1970 in Gang gesetzt zu haben mittels Herstellung großer Mengen von FCKW und diese Erwärmung im Zuge der Versuche, den Ozonzerfall aufzuhalten, genauso aus Versehen wieder zum Stehen gebracht zu haben.

Abbildung: Die Zunahme von Chlor in der Troposphäre (grüne Linie), verursacht durch die Herstellung von FCKW, führte zu einem zunehmenden Zerfall der Ozonschicht (schwarze Linie), was wiederum zu steigenden Temperaturen führte (rote Balken).

Gleichzeitig stieg die atmosphärische Konzentration von Kohlendioxid linear, jedoch mit stetig zunehmender Rate. Sie zeigt keine direkte Relation zu den Details der beobachteten globalen Erwärmung. Dutzende begutachteter Studien von führenden Atmosphären-Wissenschaftlern haben auf der Grundlage der Treibhausgas-Theorie versucht zu erklären, warum sich die globale Temperatur von 1998 bis 2013 kaum geändert hat. Bekannt ist dieses Phänomen unter der Bezeichnung Stillstand der globalen Erwärmung. In diesen Studien stecken viele interessante Gedanken, aber keiner davon fand allgemeine Akzeptanz.

Im Jahre 2014 schleuderte der isländische Vulkan Bárðarbunga basaltische Lava aus, welche innerhalb von sechs Monaten eine Fläche von ca. 85 km² überzog, das war der stärkste Ausbruch basaltischer Lava seit 1783. Ausbrüche dieser Art von Lava, welche Millionen Quadratkilometer überdeckten, gingen zeitgleich einher mit Perioden der stärksten globalen Erwärmung, Ozean-Versauerung und Massenaussterben von Spezies zu allen geologischen Zeiten. Zum Beispiel überdeckten vor 251 Millionen Jahren sibirische Basalte eine Fläche von ca. 7 Millionen Quadratkilometer, das ist so groß wie das US-Festland ohne Texas und Montana. Man stelle sich eine Fläche von New York bis San Francisco, von Seattle bis Miami vor, die von basaltischer Lava bedeckt ist. Die Eruption dieser Basalte erwärmte die Ozeane bis auf Sauna-Temperaturen [?] und löschte 95% aller damals existierenden Spezies aus. Basalte emittieren ungeheure Mengen Chlor und Brom, welche die Ursache für den Ozonzerfall zu sein scheinen. Jedoch sind die genauen chemischen Zusammenhänge noch unklar. Der Ausbruch des Bárðarbunga scheint eine sehr rapide globale Erwärmung von 2014 bis 2016 ausgelöst zu haben, welche sich 2017 abzuschwächen begann, so dass sich innerhalb eines Jahrzehnts die Werte des Jahres 2013 wieder einstellen dürften.

Während der achtziger Jahre des vorigen Jahrhunderts waren viele führende Wissenschaftler davon überzeugt, dass Treibhausgase die Ursache der globalen Erwärmung waren, dass die Erde Gefahr lief, sich im 21. Jahrhundert mit steigenden Treibhausgas-Emissionen zu überhitzen, und dass Wissenschaftler einen Konsens an den Tag legen müssen, um politische Führer davon zu überzeugen, teure Maßnahmen auf den Weg zu bringen. Diese seien erforderlich, um die Treibhausgas-Emissionen zu reduzieren. Mittels der WMO und der UNEP halfen sie, das IPCC im Jahre 1988 ins Leben zu rufen. Das IPCC hat Tausende Wissenschaftler beschäftigt, welche zehntausende Seiten Papier vollschrieben mit nachdenklicher Wissenschaft zur Stützung der Treibhausgas-Erwärmungs-Theorie. Das IPCC stellte nie die weit verbreitete Hypothese in Frage, dass Treibhausgase wirklich der primäre Grund für globale Erwärmung sind. Im Dezember 2015 trug diese Bemühung Früchte in Gestalt des Paris-Abkommens, in welchem Politiker fast aller Länder zustimmten, zusammen zu arbeiten, um Treibhausgas-Emissionen zu reduzieren.

Wissenschaft wird jedoch niemals mittels Abstimmungen durchgeführt. Wissenschaft wird nicht durch Konsens durchgeführt. Konsens ist politisches Zeug; Debatte ist das Werkzeug der Wissenschaft. Die Wissenschaft ist niemals settled. Michael Crichton drückte es im Jahre 2003 so aus: „In der Wissenschaft ist Konsens irrelevant. Relevant sind ausschließlich reproduzierbare Ergebnisse. Die größten Wissenschaftler der Geschichte sind genau deswegen groß, weil sie mit dem Konsens gebrochen haben. Es gibt so etwas wie Konsens in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“

IPCC-Wissenschaftler sind so besessen von ihrem Konsens und so unwillig, sich mit Klimaskeptikern zu streiten, dass sie sich weigern, allein schon den Gedanken bzgl. Ozonzerfall in Betracht zu ziehen. Ihre Modelle berechnen, dass Treibhausgase viel mehr terrestrische Infrarotstrahlung absorbieren als die geringe Menge ultravioletter B-Strahlung, welche die Erde beim Zerfall von Ozon erreicht. Was sie aber nicht erkennen ist, dass die Energie in thermischer Strahlung keine Funktion der Stärke dieser Strahlung ist, sondern eine Funktion der Frequenz. Ultraviolette B-Strahlung weist eine um 48 mal höhere Frequenz auf als die Frequenz infraroter Strahlung, welche am stärksten durch Kohlendioxid absorbiert wird [?]. 48 mal höher – das hat das Potential, die Temperatur des absorbierenden Körpers 48 mal wärmer zu machen. Ultraviolette B-Strahlung enthält genug Energie, um Sonnenbrand, Hautkrebs und Grauen Star auszulösen – was keine Menge infraroter Strahlung je vermag. Schließlich wird einem viel wärmer, wenn man im Sonnenlicht steht als nachts im Freien mit all der infraroten Strahlung ringsum. Ich kann jetzt zeigen, dass Treibhausgase einfach nicht genug Wärme absorbieren können, um als primäre Ursache für globale Erwärmung zu dienen.

Klimamodelle auf der Grundlage von Treibhausgas-Erwärmung haben seit 1998 die Temperaturen nicht mehr richtig prophezeit. Die große Erwärmung, zu welcher es den Ergebnissen dieser Modelle zufolge später in diesem Jahrhundert kommen soll, wird aller Voraussicht nach nicht eintreten. Wenn politische Führer nach Wegen suchen, die Treibhausgas-Konzentration zu reduzieren mit zu erwartenden Kosten in Billionenhöhe, müssen sie verstehen, dass dies keinerlei Auswirkung auf die Reduktion der globalen Erwärmung haben könnte.

Inzwischen wird sich der Ozean weiter erwärmen, solange das Ozon relativ zum Niveau des Jahres 1970 zerfallen bleibt. Die Erholung der Ozonschicht wird verzögert durch einen deutlichen schwarzen Mark von FCKW, weil es sich die Menschen in ärmeren Ländern nicht leisten können, ihre von FCKW abhängigen Kühlschränke und andere Einrichtungen zu ersetzen. Hinzu kommt: kurzlebigere Substanzen wie dichloromethanes haben eine stärkere negative Auswirkung auf das Ozon-Niveau als zuvor gedacht. Falls wir wirklich unseren negativen Einfluss auf das Klima [?] reduzieren wollen, müssen wir uns darauf konzentrieren, den Ozonzerfall zu stoppen. Wir müssen auch anfangen, über unsere Optionen im Falle großer Ausbrüche basaltischer Lava nachzudenken.

Dr. Peter L. Ward worked 27 years with the United States Geological Survey as research geophysicist, branch chief, and program manager. He helped develop and manage a major national research program, chaired a committee at the White House, testified before Congress, worked on a committee for Vice President Gore, published dozens of scientific papers, and won two national awards for explaining science to the general public. He retired in 1998, working intensely for the past twelve years, trying to resolve several enigmatic observations related to climate change.

Ward’s analysis and theory are explained in detail on his website, WhyClimateChanges.com, and in his new book: „What Really Causes Global Warming? Greenhouse Gases or Ozone Depletion?“

Link: https://www.rdmag.com/article/2018/04/ozone-depletion-not-greenhouse-gases-cause-global-warming-says-researcher

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers zu diesem Beitrag:

Mit diesem Beitrag wird nun eine weitere und meines Wissens nach völlig neue Ursache der globalen Erwärmung geliefert – so diese wirklich ein messbares Ausmaß erreicht hat. Die von mir im Artikel gesetzten Fragezeichen [?] sollen schon auf Ungereimtheiten hinweisen.

Es ist immer wieder interessant, mit welch immer neuen Ansätzen versucht wird, Klimaänderungen zu begründen. Die hier vorgestellte FCKW-Theorie scheint mir die gleiche zufällige Koinzidenz zu sein wie steigender CO2-Anteil in der Atmosphäre und steigende Temperatur. Oder wie die steigende Storchenpopulation und zunehmende Geburten in Deutschland. Oder wie… Mit einiger Phantasie lassen sich viele dieser Koinzidenzen finden, die aber alle eines gemeinsam haben: Sie können den immerwährenden Klimawandel seit vielen Millionen Jahren auf der Erde vor dem Auftritt des Menschen nicht erklären.Man muss sich doch nur fragen: Seit wann gibt es das FCKW-„Problem“ – und seit wann gibt es Klimawandel?

Hier wird nun der aktuelle Klimawandel mit einem Einzelereignis in Verbindung gebracht, nämlich einem Vulkanausbruch 2013. Die nachfolgende Wärmespitze soll diesem Ereignis geschuldet sein – und nicht dem Super-El Nino, der nicht einmal erwähnt wird. Damit schließt sich der Kreis unter dem Motto: Immer mal wieder etwas Neues. Das wird wohl unendlich so weitergehen – bis vielleicht das aktuelle Sonnenaktivitäts-Minimum Wirkung zeigt…




Bonn am 14.5.18 – „Klimaschutz“ auf dem Prüfstand

page1image1786592

Arbeitsgemeinschaft Energie und Umwelt www.ageu-die-realisten.com

AG E+U

„Klimaschutz“ auf dem Prüfstand

Einladung zur Vortragsveranstaltung/Diskussion in Bonn am 14. Mai 2018

Sehr geehrte Damen und Herren, liebe Freunde und Kollegen,

Der „Klimaschutz“ ist seit Jahren eines der wichtigsten politischen Ziele der Bundesregierung mit der Begründung, dass durch CO2-Emissionen, die bei der Verbrennung fossiler Energieträger entstehen, die Entwicklung des Klimas negativ beeinflußt wird.

Unsere Referenten werden zu den folgenden Fragen Stellung nehmen.

  •   Kann man das „Klima schützen“?
  •   Hat das Spurengas CO2 einen Einfluß auf die Entwicklung des Klimas?
  •   Hat die Verbrennung fossiler Energieträger eine klimabeeinflussende Auswirkung?Gemeinsam mit der Arbeitsgemeinschaft Energie und Umwelt (AGE+U) haben wir, der Verein Fortschritt in Freiheit e.V. (FiF), zwei sachkundige Persönlichkeiten zur Klimadiskussion gewinnen können. Es handelt sich um den Analysten und Leiter von KE Research, Klaus Ermecke, sowie den kanadischen Publizisten und einstigen Mitbegründer von Greenpeace, Dr. Patrick Moore (Vortrag Moore auf Englisch).Die Veranstaltung findet statt:

Wann? Am 14. Mai 2018, ab 17:00 Uhr

Wo? Dotty’s Sportsbar, im BTHV, Christian-Miesen-Straße 1, 53129 Bonn (U-Bahn-Haltestelle: Bonn UN Campus), kostenlose Parkplätze sind vorhanden

Sehr gern heißen wir Sie als geschätzten Teilnehmer und Diskutanten auf der Veranstaltung willkommen.
Wir würden uns sehr freuen, wenn wir mit Ihrer Teilnahme rechnen dürften. Interessenten aus Ihrem Umfeld sind ebenfalls herzlich willkommen.

Mit freundlichen Grüßen

Hannelore Thomas
Fortschritt in Freiheit e.V. (Hannelore Thomas) und AG E+U Die Realisten (Dr. Rainer Six)

page1image3730752page1image3730544

Damit wir die Teilnehmerzahl abschätzen können, bitten wir Sie, sich vorab unter dem Link anzumelden:

https://doodle.com/poll/r9xzuambc69ceyak

page1image5796912page1image5797120

Eingetragen im Vereinsregister des Amtsgerichts Köln. Registergericht: Köln Registernummer:VR 18479




Klima­retter – Lebens­retter. Ärzte sollen Fossil-Ausstieg fordern

Es ist wichtig, auch das Gesundheitswesen in den Kampf gegen die Klimaerwärmung einzubinden …

… sagte der Präsidenten der Bundesärztekammer in einem Interview. Aufgespürt hat es eine bekannte (Des-)Informationsseite, durchgeführt wurde es vom Debattenmagazin der Umweltbewegung, movum:
KLIMARETTER.INFO, 30. März 2018: [1] Ärzte sollten Fossil-Ausstieg fordern
Dabei geht es um das Projekt „KLIMARETTER – LEBENSRETTER“, dessen Schirmherr der Präsidenten der Bundesärztekammer ist. Da dieses klimaalarmistisch angelegt ist, wird dieses Projekt selbstverständlich auch vom Umweltministerium gefördert.

Interview (sehr stark gekürzter Auszug):
[1] klimaretter.info: Herr Montgomery, Sie sind Schirmherr des Projekts Klimaretter – Lebensretter. Was sind Ihre Ziele? Ist der Klimaschutz ein Thema in der Ärzteschaft?
Frank Ulrich Montgomery: Natürlich ist er das, denn Klimaschutz geht uns alle an. Deshalb ist es wichtig, auch das Gesundheitswesen in den Kampf gegen die Klimaerwärmung einzubinden, von den Arztpraxen über die Krankenhäuser bis zu den Unternehmen im Gesundheitssektor.
Wir sprechen hier von rund 230.000 Einrichtungen – eine riesige Zahl, die wir über Multiplikatoren ansprechen wollen. Die Stiftung
Viamedica plant darüber hinaus auch einen nationalen Klimaretter-Tag und einen Preis für Klimaretter …

„Ärzte sollten Fossil-Ausstieg fordern“

Unverhohlen plädiert der Präsident der Bundesärztekammer dann für Agitation und Politisierung des Gesunheitswesen.
Interview (sehr stark gekürzter Auszug): [1] … Wie bewerten Sie die Gesundheitsgefahren durch den Klimawandel? Sollte sich die Ärzteschaft für den Ausstieg aus den fossilen Brennstoffen engagieren?
Montgomery: … Kein Zweifel: Der Klimawandel ist real, er ist von Menschen gemacht und gefährdet unsere Gesundheit. Nehmen Sie als Beispiel nur die Zunahme von Starkregen in vielen Ländern, auch in Deutschland. Das führt zu Überschwemmungen, verursacht großes Leid und kostet Menschenleben.
Deshalb sollte sich auch die Ärzteschaft für den Ausstieg aus den fossilen Brennstoffen engagieren. Nicht nur sie, sondern alle am Gesundheitswesen Beteiligten sollten sich für mehr Klimaschutz starkmachen.

Kein Zweifel: Der Klimawandel ist real, er ist von Menschen gemacht und gefährdet unsere Gesundheit

Wieder eine „Intelligenz“, welcher es ganz sicher weiß, so sicher, dass sie sich traut, es anderen vorzuschreiben.
Dazu nennt Herr Montgomery als Beleg: „ … Beispiel nur die Zunahme von Starkregen in vielen Ländern, auch in Deutschland …“

Wegen dieser Behauptung hat der Autor extra seine Sichtungen zum Starkregen in Deutschland aktualisiert und auf EIKE veröffentlicht:
EIKE 18.04.2018: [5] Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2) und Teil1

Es ist ziemlich sicher, dass Starkregenereignisse in Deutschland nicht zugenommen haben, nicht zunehmen und auch keinerlei Anzeichen dafür bestehen. „Schlimmer noch“, Starkregenereignisse nehmen in Deutschland seit Jahrhunderten ab. Alle „Zeichen“ für das Gegenteil stammen ausschließlich aus Computersimulationen, die das wahre Wetter und Klima ausblenden.
Während Staatsinstitute, wie der DWD und das Umweltbundesamt, wider besseren Wissens das behaupten, was die Politik hören will, gibt es ab und zu Medien, welche von der Wirklichkeit berichten:
wetteronline, Montag, 01.06.2015: Bericht des Umweltministeriums Mehr Wetterextreme als früher?
… Es ist jedoch sehr problematisch Wettererscheinungen mit dem Klimawandel in Verbindung zu bringen, denn Wetter und Klima sind zwei völlig verschiedene Dinge. Während sich Wetter auf einer Zeitskala von einigen Tagen bis wenigen Wochen vollzieht, findet Klima in Zeiträumen von Jahrzehnten statt. Klimaänderungen werden daher naturgemäß erst im Laufe vieler Jahrzehnte bis Jahrhunderte, größere Schwankungen sogar erst nach Jahrtausenden sichtbar. Daher sind Wetterkapriolen zur Begründung einschneidender Klimaschutzmaßnahmen gänzlich ungeeignet. … Ungeachtet der Tatsache, dass sich das Klima der Erde derzeit mit durchaus beunruhigender Geschwindigkeit erwärmt, gibt es bislang aber noch keine belastbaren Beweise dafür, dass die Zahl der Wetterextreme – wie von Klimawissenschaftlern befürchtet – bereits nachweislich zugenommen hat. Unwetter mit Starkregen oder großem Hagel sowie zerstörerische Stürme hat es seit Menschengedenken schon immer gegeben. Selbst starke Tornados sind in Europa keineswegs neu. Das gleiche gilt für längere Hitzewellen oder Ernteausfälle durch Dürren …
Und das gilt rund um die Welt, wie es der IPCC AR5 Langbericht detailliert ausweist [9].

Gefährdet der „Klimawandel“, oder eher typisches, weithin bestehendes Regierungsversagen in vielen Ländern die Gesundheit?

Herrn Montgomerys weitere Behauptungen: „ … er ist von Menschen gemacht und gefährdet unsere Gesundheit … “,
ist ebenfalls eine reine Floskel und hat mit der Wirklichkeit nichts zu tun. Lassen wir die Diskussion zu „menschengemacht“ beiseite, eine Gefährdung unserer Gesundheit durch den ausgerufenen AGW-Klimawandel konnte noch niemand wirklich belegen. Und die meisten und schlimmsten Seuchen der europäischen Geschichte waren weit vor dem Klimawandel. Eher glaubhaft ist immer noch das Gegenteil:
kaltesonne, 10. April 2018: Anzahl von klimabedingten Todesfällen nimmt weltweit weiter ab
EIKE 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen
EIKE 13.01.2016: [6] Munich Re Presseinfo: Natur fordert mehr Opfer – Naturkatastrophen wie Erdbeben, Überschwemmungen und Hitzewellen haben 2015 deutlich mehr Menschenleben gekostet als im Vorjahr

Vor allem eine der wirklich noch bestehenden, weltumspannenden großen Geißeln nimmt (wohl nicht durch den „Klimawandel“, aber damit eng korreliert) rasant ab, obwohl behauptet wird (zum Beispiel von M. Mann und Herrn Schellnhuber, PIK), sie müsse durch den Klimawandel zunehmen: Gemeint ist die Malaria.

In Ländern, welche mit Engagement Maßnahmen ergreifen, belegt sich, dass das Gegenteil der Aussagen von Klimasimulationen eintritt. Wie bei der Malaria, welche erfolgreich eingedämmt werden kann.
Grafiken und etwas Info dazu aus [3]:
WUWT Anthony Watts / May 22, 2010: [4] Mann’s 1.8 million Malaria grant – “where do we ask for a refund’?

Thomas Fuller of the San Francisco Examiner has a great piece which summarizes the issue of climate and malaria and Mann. Like with the imagined increase in hurricane frequency due to global warming, so it goes with malaria. There’s no correlation. The premise is false
The researchers —
whose work was published in Nature yesterday (20 May) — found that despite global warming, the prevalence of malaria decreased, which they attribute to disease and mosquito control programmes.

Bild 1 [3] Weltweite Abnahme der Malariaverbreitungsgebiete seit 1850
Bild 2 [3] Weltweite Abnahme der Malariafälle seit dem Jahr 2.000. Quelle: OUR WORLD IN DATA December 2017 : Malaria by Max Roser and Hannah Ritchie

Unter Klimaaktivisten hat es Methode, einfach Behauptungen in den Raum zu stellen …

weil sie wissen, dass solche von den Medien gerne und mit Eifer publiziert werden. Ein ganz schlimmes Beispiel lieferte dazu ein Gewinner des alternativen Nobelpreises:
EIKE 27.09.2016: [7] Der Krieg des Klimas gegen die Menschheit Über den weltweit bekanntesten (und wohl aggressivsten) Klimaaktivisten Bill McKibben
… der ohne eine Spur von Belegen behauptete: … „Der Feind
(gemeint ist der angeblich menschengemachte Klimawandel) setzt sogar Bio-Waffen ein, um psychologischen Terror zu verbreiten: Der Zika-Virus lässt auf einem ganzen Kontinent die Köpfe von Neugeborenen schrumpfen ... Die Krankheit ist der Grund, warum Regierungen in Lateinamerika und der Karibik ihren Bürgerinnen offiziell empfehlen, nicht schwanger zu werden. Wir haben es so weit kommen lassen, dass Kinder bekommen – die schönste und grundlegendste Sache der Menschheit – vom Klimawandel in Frage gestellt wird. Das kann ich einfach nicht fassen” ...
In einem Zeitungsartikel zu dieser Thematik ist der von McKibben genannte „ganze Kontinent“ auf sechs nachgewiesene Fälle geschrumpft:
[7] ZEIT ONLINE 29. Januar 2016: Zika-Virus: Das Märchen von den 4.000 geschädigten Babys
… Bei den verbleibenden 270 Meldungen besteht aufgrund von Ultraschall-, Röntgen- oder Laboruntersuchungen der begründete Verdacht auf eine Verkleinerung des Schädels oder eine infektiöse Schädigung des Nervensystems. Bei sechs dieser Fälle wurde das Zika-Virus nachgewiesen.
Warum die das Zikavirus (im Wesentlichen jedoch Gelbfieber) verbreitende Mücke in Brasilien einen guten Nährboden vorfindet, hat mit einem Klimawandel nichts zu tun:
[7] … Aedes aegypti hat sich an die Großstätte Lateinamerikas perfekt angepasst. Während der Malaria-Überträger Anopheles nur auf besonders sauberen Naturgewässern brütet, liebt Aedes schmutzige Pfützen in alten Autoreifen, vergammelten Blumentöpfen und weggeworfenen Coladosen. Als echter Großstädter ist Aedes tag- und nachtaktiv und so nervenstark, dass ihn auch verzweifeltes Wedeln und Schütteln kaum vertreiben kann. Das Versprühen von Insektiziden, das vor der Karnevalszeit an den touristisch wichtigen Punkten wie ein Ritual zelebriert wird, bringt langfristig nichts, solange die Nistplätze in den Favelas unbehelligt bleiben. Gegen die Aedes-Plage in Brasiliens Metropolen gibt es nur ein wirksames Mittel: gründlich Aufräumen. Doch mit den entsprechenden Aufrufen sind bereits mehrere Regierungen gescheitert.
Und natürlich nicht erwähnt wird, dass das durch diese Mücke übertragene Gelbfieber bezüglich der Gefährdung um Dimensionen schlimmer ist:
[7] … Dass das Zika-Virus neben den anderen, von dieser Mücke übertragbaren Krankheiten das wohl kleinste Problem ist, lässt sich auch nachlesen. Aber diese tödlichen Krankheiten kennt man als „alltägliche Tropenkrankheiten“, weshalb man dagegen keine Massen mobilisieren kann …
Mit dem von der gleichen Mücke übertragenen Dengue-Fieber haben sich in Brasilien alleine im Jahr 2016 ca. 1,5 Millionen Einwohner angesteckt, ca. 80 Personen sind daran gestorben [8].

Fazit

Der Präsidenten der Bundesärztekammer mutiert zum Aktivisten und hebt sich leider in keiner Weise von deren typischen Vorgehen ab, indem er um irgendwelcher Vorteile willen, in seiner Argumentation jegliche Seriosität vermissen lässt. Ihm reicht es, die gängigen, oft zu hörenden „Standardargumente“ nachzuplappern. Dabei würde man gerade bei Personen in solchen Positionen erwarten, dass sie irgendwann auch beginnen, solche zu hinterfragen.
Es bleibt erschütternd, mitzuerleben, wie unsere „Intelligenz“ in Deutschland zunehmend zu politischen Sprachbütteln einer vorgegebenen Einheitsmeinung degeneriert.

Eine der wohl dümmsten „Wissenschaftstaten“ der Geschichte: Auf Computern den Weltuntergang in beliebigen Varianten simulieren und dazu die Rettung versprechen, indem die Menschheit allen Grünpflanzen ihren lebensnotwendigen Luftdünger CO2 reduzieren soll, trägt ihre Früchte. Massenhysterie durch die Vorhersage von Weltuntergängen gab es zu allen, geschichtlichen Zeiten. Wichtig waren dabei immer einfach zu verstehende Erklärungen. Und einfacher als mit drei Buchstaben „CO2“ geht nimmer.
Und nicht selten ist nicht nur das Volk, sondern auch die „Intelligenz“ den sich dann ernennenden „Rettern“ blind hinterhergerannt. Warum sollte dieser auf Psychologie beruhende Kreislauf plötzlich zu Ende sein.

Quellen

[1] KLIMARETTER.INFO, 30. März 2018: Ärzte sollten Fossil-Ausstieg fordern

[2] viamedica – Stiftung für eine gesunde Medizin. Projekthomepage: Klimaretter – Lebensretter

[3] EIKE 29.03.2018: Klimaleugner befinden sich in der ersten Phase der Klimatraumatisierung

[4] EIKE 13.03.2018: Ärzte brauchen auf den Klimawandel medizinische Antworten

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[6] EIKE 13.01.2016: Munich Re Presseinfo: Natur fordert mehr Opfer – Naturkatastrophen wie Erdbeben, Überschwemmungen und Hitzewellen haben 2015 deutlich mehr Menschenleben gekostet als im Vorjahr

[7] EIKE 27.09.2016: Der Krieg des Klimas gegen die Menschheit Über den weltweit bekanntesten Klimaaktivisten Bill McKibben

[8] Zeit Online 24. Januar 2017: Erst Zika, jetzt Gelbfieber: Wie gefährlich ist das?

[9] EIKE 25.11.2016: Das heißeste Jahr, aber die niedrigste Tornadorate – obwohl nach der Theorie beides gleichzeitig höher werden muss




Golfstrom mit Glatteis – oder, wie Müller Jung von der FAZ die Welt sieht.

Die Sonne kracht, die Biergärten sind rammelvoll, die Mädchen leicht bekleidet (außer in bereits Minirock-befreiten Zonen). Es besteht Grund zur Freude, die Erhitzung der Atmosphäre zeigt einmal mehr ihre schönsten Folgen. Selbst die Eisbären in den Zoos sind gut gelaunt, offenbar haben sie noch nicht mitgekriegt, dass sie demnächst aussterben sollen. Während die Süddeutsche Zeitung noch den ausgelutschten Drops von den verhungernden Bärchen serviert, ist der Tagesspiegel schon auf einem anderen Trip: Dem Eisbären stehen goldene Zeiten bevor!

Denn, so haben Ausflüge in die weite Welt der Klima-Hochrechungen ergeben, der Golfstrom verlangsamt sich, und Europa wird alsbald unter einer Eisdecke bibbern. Die FAZ meldet, der Klimawandel hinterließe „radikaler denn je seine Spur in den Datenreihen“. Der gleiche FAZ-Autor schrieb vor zehn Jahren zu zweifelhaften Studien auf diesem Gebiet „Wissenschaft funktioniert anders“.

Datenreihen sind bekanntlich geduldig, das Narrativ vom Ableben des Golfstroms ist prinzipiell seit Jahrzehnten genauso ausgelutscht wie das der Eisbären, die sterben, auch nur in den Datenreihen. Im richtigen Leben erfreuen sie sich bester Gesundheit und konnten sich sogar vermehren. Auch die Wahrscheinlichkeit für ein Versiegen des Golfstroms im 21. Jahrhundert liegt nahe bei null.

Der Golfstrom wird nämlich nicht nur von der sogenannten thermohalinen Zirkulation befördert, sondern auch vom Windsystem über dem Nordatlantik und von der Erdrotation in Schwung gehalten. Der Ozeanograf Carl Wunsch vom Massachusetts Institute of Technology sprach einmal die güldenen Worte: „Wer den Golfstrom wirklich zum Stillstand bringen will, muss entweder die Winde abschalten oder die Erde anhalten. Oder beides“.

Ohnmacht und Hybris – und nix dazwischen

Hat sich der FAZ-Autor in Sachen Golfstrom eines besseren belehren lassen? Oder ist er Teil einer zunehmenden Hysterisierung und Moralisierung von Wissenschaft, die er im oben bereits verlinkten Beitrag so beschreibt: „Tatsächlich motiviert die Klimaforschung derzeit mit ihren Datenanalysen so etwas wie eine ‚neue Radikalität‘ im ökologischen Denken. Ein Vokabular, das nicht nur auf Parteitagen auftaucht, sondern auch vom Generalsekretär der Vereinten Nationen, António Guterres, auf einer UN-Pressekonferenz jüngst verwendet wurde: Die Schlagzeilen würden dominiert von Spannungen und Konflikten auf der Welt, sagte Guterres in New York, ‚die Wahrheit aber ist, dass der Klimawandel die größte systemische Bedrohung für die Menschheit ist‘“.

Also sprach der Klima-Papst: Ihr sollt keine andere Katastrophe neben mir haben! Was sind schon kleinliche Problemchen wie Völkermord, Armut oder Rückfall ganzer Weltregionen in religiöse Wahnvorstellungen gegen das große Klima-Apokalypsen-Narrativ internationaler Apparatschiks. Das schöne an diesem Katastrophen-Alarm ist doch, dass man damit jede Zwangsmaßnahme im Hier und Jetzt begründen kann, die Erfolgskontrolle aber erst in 100 Jahren möglich ist. Die größte systemische Bedrohung für die Menschheit ist deshalb eine Nomenklatura, die die Menschheit ganz direkt und ohne Umweg über die CO2-Emissionen ins Unglück stürzt. In Deutschland haben sie sich beispielsweise mit großem Erfolg daran gemacht, im Namen künftiger Heilserwartungen die wirtschaftliche Grundlage dieses Landes und seinen Wohlstand zu zerstören. Ich sage nur: Energiewende.

Die drohende Klimakatastrophe wird zu einem Überzeugungs- und Glaubensystem, das gesellschaftlichen Sinn stiften soll. Eine von Glaubwürdigkeitskrisen geschüttelte Politik hat die Weltrettung zur neuen Utopie erkoren. Sie können nicht einmal die Grenzen des Landes bewachen, glauben aber, die Temperaturentwicklung des Planeten per ordre de Mufti begrenzen respektive steuern zu können. Die Herrschaften schwanken zwischen Ohnmacht und Hybris – und leider ist nichts mehr dazwischen.

Wenn man die sich widersprechenden „Narrative“ vom Ende des Golfstroms und vom Ende der Eisbären zusammen nimmt, dann zeigt dies im Übrigen nicht nur Hysterisierung und Moralisierung der Klima-Debatte, sondern auch eine religiöse Immunisierung gegen Botschaften, die dem herrschenden Dogma zuwiderlaufen könnten. Denn: Egal ob es kälter oder wärmer wird oder ob alles so bleibt wie es ist (die unwahrscheinlichste Variante, weil das Klima sich im Verlauf der Erdgeschichte immer wieder geändert hat), die Klima-Paniker werden in jedem Falle behaupten, sie hätten recht.

Wenn nicht nur eine Katastrophe, sondern auch ihr Ausbleiben als Folge des sündhaften menschlichen Treibens gedeutet werden, dann zeigt dies eine völlige Immunisierung gegen rationale Argumente. So entsteht eine sich selbst abdichtende Weltsicht, die sich schließlich zu einer prinzipiell nicht falsifizierbaren Annahme verhärtet. Die Logik erinnert ein wenig an den mittelalterlichen Gottesbeweis: Wenn eine gefesselte Hexe im Wasser unterging, war sie keine Zauberin, aber dennoch tot. Schwamm Sie obenauf, dann handelte es sich hingegen eindeutig um eine Hexe, woraufhin sie ebenfalls vom Leben in den Tod befördert wurde.

Zuerst erschienen auf ACHGUT hier




Meeres­spiegel-Trends, Anfangs­zeitpunkte und Daten-Verschie­bungen

Apra Harbor auf Guam

Die Aufzeichnung des Tidenmesspunktes Apra Harbor, Guam (hier) wurde jüngst analysiert von Parker & Ollier (2018). Dabei stellte sich heraus, dass der PSMSL nach den jüngsten Erdbeben nur einen von zwei Daten-Sprüngen erwähnt hat, und zwar den weniger bedeutenden in den Daten. Dieser Datensprung wurde dann von der NOAA herangezogen zur Berechnung der Anstiegsrate des Meeresspiegels seit den niedrigen ENSO-Gewässern [?]. Die Berechnung wird auch beeinträchtigt durch den nicht entdeckten Datensprung, welcher die Rate des Meeresspiegel-Anstiegs offensichtlich verstärkt.

Hier in Abbildung 1 ist die monatliche und mittlere jährliche Höhe des Meeresspiegels nach dem PSMSL gezeigt:

Abbildung 1: monatlicher (Quelle) und jährlicher (Quelle) mittlerer Meeresspiegel nach PSMSL.

Die NOAA schreibt hier:

Der Relative Meeresspiegel-Trend beträgt 5,04 Millimeter pro Jahr mit einem Vertrauensintervall von 95% von ±4,15 mm pro Jahr auf der Grundlage der monatlichen Daten des mittleren Meeresspiegels von 1993 bis 2017. Dies ist äquivalent mit einem Anstieg von ca. 50 cm innerhalb von 100 Jahren.

In Abbildung 2 wurde der saisonale Zyklus aus den Daten des mittleren Meeresspiegels entfernt.

Abbildung 2. Quelle: Meeressiegel-Trendanalyse der NOAA (hier)

Der Meeresspiegel bei Guam wurde jüngst analysiert von Parker & Ollier (2018). Das Ergebnis zeigt Abbildung 3 des monatliche mittleren Meeresspiegels:

Abbildung 3: Monatlicher mittlerer Meeresspiegel in Apra Harbor. (a) lineare Anassungen, (b) gleitendes Mittel über 12 Monate. Daten von www.psmsl.org, Bild von Parker & Ollier (2018)

Aus den Abbildungen 1, 2 und 3 geht hervor:

Während der Monate Januar und Februar 1993 zeigt sich eine 2 Monate lange Lücke vor dem Erdbeben vom August 1993, jedoch keine Lücke nach dem Erdbeben. Es gab keine Unterbrechung der Messungen nach dem Erdbeben vom August 1993. Der Verlauf vor und nach dem Erdbeben scheint nur gering unterschiedlich zu sein.

Es gibt eine breite Lücke von 14 Monaten von Dezember 1997 bis Februar 1999. Sie folgt auf das Erdbeben vom April 1997, beginnt jedoch erst 6 Monate später. Danach folgen noch zwei weitere Lücken, und zwar im Juni und Juli 1999 bzw. September bis November 1999. Im Grunde gab es von Dezember 1997 bis Dezember 1999 kaum oder überhaupt keine Messungen. Während der Verlauf vor sowie unmittelbar nach dem Erdbeben ähnlich zu sein scheint, scheint er sich sehr stark zu unterscheiden nach Wiederaufnahme der Messungen nach der 14 Monate langen Unterbrechung.

Der Relative Meeresspiegel ist kontinuierlich von Januar 1948 bis August 1993 gefallen, und zwar mit einer Rate von –1,08 mm pro Jahr.

Im August 1993 kam es wahrscheinlich zu einer Daten-Verschiebung um 20 bis 30 mm, und zwar nach dem Erdbeben 7.8 Mw Mag., IX MMI.

Im Februar 1999 bei Wiederaufnahme der Messungen nach der Pause von 14 Monaten nach dem Erdbeben 6.5 Mw Mag. VII MMI vom April 1997 ergibt sich der Eindruck einer sogar noch stärkeren Daten-Verschiebung von nicht weniger als 30 bis 40 mm.

Der PSMSL berichtet nun am 16. Oktober 2002:

Guam – geschätzte Landbewegung von 2 bis 3 cm im Jahre 1993 nach dem Erdbeben. Dann heißt es in einem PSMSL-Report vom 18. Juli 2011, dass die Stabilität der Tidenmessung ein Problem ist. „Die Betreiber des Tidenmesspunktes Guam, also das Centre for Operational Oceanographic Products and Services (CO-OPS), der NOAA angegliedert, merken an, dass es nach dem Erdbeben in Guam des Jahres 1993 zu einer Änderung des Meeresspiegel-Trends gekommen war. Die Stabilität der Tidenmessdaten nach dem Erdbeben ist daher bedenklich. CO-OPS überwacht den Messpunkt weiterhin“.

Überraschenderweise gibt es bei PSMSL keinerlei Erklärung, aus welchen Gründen die Messungen 14 Monate lang unterbrochen und warum diese Messungen nach dem Erdbeben vom April 1997 so erratisch waren.

Genauso überraschend wird seitens PSMSL nicht eine mögliche zweite Datenverschiebung erwähnt, zu welcher es den Daten zufolge sehr wahrscheinlich gekommen ist. Die Wahrscheinlichkeit hierfür ist deutlich höher als beim ersten Mal.

Seit Januar 1999 ist der Meeresspiegel kontinuierlich gesunken mit einer Rate von –1,15 mm pro Jahr.

Berücksichtigt man die beiden Daten-Verschiebungen um 30 mm vom September 1993 und weiterer 30 mm seit Februar 1999, sowie die Landabsenkungen, zeigt der absolute MSL bei vollständiger Trendbereinigung lediglich Oszillationen seit Januar 1948 (Parker & Ollier 2018).

Der Meeresspiegel ist sich über alle drei Perioden nahezu kontinuierlicher Messungen gesunken, separiert durch die beiden sehr wahrscheinlichen Datenverschiebungen (break points).

Jedes Verfahren des Alignments, in welchem break points zur Analyse von Zeitreihen herangezogen werden, wird die Größenordnung der beiden Datenverschiebungen belegen, sobald deren Existenz eingeräumt wird.

Eine Datenverschiebung gab es wahrscheinlich im August 1993, zur gleichen Zeit wie das Erdbeben, und dann nochmals vor Wiederaufnahme der Messungen im Februar 1999, also nach einer Lücke von 14 Monaten nach dem Erdbeben vom April 1997. Die beiden nicht berücksichtigten Datenverschiebungen machen 20 bis 30 mm aus und nicht weniger als 30 bis 40 mm.

Mit der Vernachlässigung der Daten vor 1993 wegen der „vermuteten Landbewegung von 2 bis 3 cm im Jahre 1993 nach dem Erdbeben“, wie es die NOAA praktiziert hat, und bei Vernachlässigung der Datenverschiebung vom Februar 1999, zeigt die Analyse der kurzen Reihe mit Beginn zum Zeitpunkt des niedrigen ENSO-Wasserniveaus aus Abbildung 2 eine erhebliche und offensichtliche Anstiegsrate über 5 mm pro Jahr.

Diese Anstiegsrate wird dann als Beweis verkauft für die im EPA-Pamphlet (hier) behauptete Beschleunigung des Meeresspiegel-Anstiegs, wo es heißt:

Der Meeresspiegel ist relativ zur Küstenlinie von Guam seit 1993 um etwa 4 Inches [ca. 10 cm] gestiegen. Falls sich Ozeane und Atmosphäre weiterhin erwärmen, wird der Meeresspiegel rund um Guam im nächsten Jahrhundert wahrscheinlich um ein bis drei Fuß [ca. 30 bis 90 cm] steigen. Dieser Anstieg lässt tief liegende Gebiete versinken, erodiert Strände und verschlimmert küstennahe Überschwemmungen durch Taifune und Tsunamis. Küstennahe Häuser und Infrastruktur werden immer öfter überschwemmt, weil auch Sturmfluten immer höher auflaufen. Häuser, Büros, Straßen und der Hafen von Guam sind verwundbar gegenüber den Auswirkungen von Stürmen und Meeresspiegel-Anstieg.

Es scheint ihnen nicht angemessen, eine klare Datenverschiebung im Jahre 1993 anzusprechen, während die offensichtlichere Datenverschiebung im Jahre 1998 vernachlässigt wird. Das soll den Standpunkt der NASA stützen, die Rate des Anstiegs in Guam nur unter Berücksichtigung der Daten seit 1993 zu berechnen, also bei niedrigen ENSO-Gewässern. Die Behauptung der EPA eines Anstiegs des Meeresspiegels um vier Inches seit 1993 scheint nicht gerade jene „solide“ Wissenschaft zu sein.

References

[1] Parker, A. & Ollier, C.D. (2017). Is the Sea Level Stable at Aden, Yemen?, Earth Systems and Environment, 1(2), p.18.

[2] Parker, A. & O’Sullivan, J., (2018), The Need of an Open, Fair Peer Review of Sea Levels Data, accepted paper, in press.

[3] Parker, A. & Ollier, C., (2018), The sea level of Guam, accepted paper, in press. Also www.preprints.org/manuscript/201803.0196/v1

Link: https://wattsupwiththat.com/2018/04/18/sea-level-trends-starting-points-and-datum-shifts/

Übersetzt von Chris Frey EIKE




Aufmerk­samkeit der Öffent­lichkeit auf globale Erwär­mung lenken: die finale Heraus­forderung

Die Öffentlichkeit verharrt im Abwarte-Zustand. Sie weiß, dass irgendetwas nicht stimmt, kann aber zu keiner endgültigen Schlussfolgerung kommen. Dafür sind verschiedene Gründe maßgeblich, darunter:

Die Informationen stammen von der Regierung, und das ist immer irgendwie verdächtig, obwohl die Menge von Land zu Land unterschiedlich ist. So misstrauen z. B. ihrer Regierung mehr als Kanadier.

Die Regierung informiert auf zwei Wegen, nämlich via Bürokraten und Politiker. Das öffentliche Misstrauen gegenüber Bürokraten besteht, weil die meisten Menschen schon mal mit ihnen zu tun hatten und zu der sprichwörtlichen Erkenntnis gelangt waren, dass man Wahrheit nicht erzwingen kann. Zusätzlich stützen jüngste Enthüllungen der Vorgänge im IRS [die oberste US-Steuerbehörde], DOJ [die US-Justizbehörde], dem FBI und der EPA das Misstrauen immer wieder neu.

Das Misstrauen gegenüber Politikern ist auf einem Allzeit-Hoch, besonders in den USA.

Etwa 80% der Menschen verstehen die Wissenschaft nicht und sagen folglich nichts.

Die meisten der 20%, welche mit Wissenschaft ein wenig vertraut sind, verstehen die Klimawissenschaft nicht und schweigen ebenfalls.

Eine Mehrheit der Meinungen Äußernden tut dies lautstark und definitiv; sie bestätigen die Beobachtung von Mark Twain, dass es klüger ist, den Mund zu halten und die Menschen glauben lassen, dass man dumm sei als dass man etwas sagt und ihnen recht gibt.

Viele wissen, dass der Übergang vom Terminus ,Globale Erwärmung‘ zu ,Klimawandel‘ einen Grund hatte, den sie aber nicht kennen. Nichtsdestotrotz erregt das weiteren Verdacht.

Viele wissen, dass die Aussage von Al Gore vor dem Kongress, dass die Wissenschaft settled und die Debatte vorüber ist, falsch war.

Viele der düsteren Untergangs-Prophezeiungen sind nicht eingetroffen.

Sie sind betäubt durch den Extremismus der Medien. Selbst FOX-News redet von ,Extremwetter‘ anstatt einfach nur Wetter. Die Achtung der Öffentlichkeit vor den Medien befindet sich auf einem Allzeit-Tief.

Die Behauptungen, wonach die Öffentlichkeit negativ und heftig auf den Rückzug von Präsident Trump aus dem Paris-Abkommen reagieren werde, haben sich als falsch herausgestellt.

Das Misstrauen in die Wissenschaft allgemein und die Klimawissenschaft im Besonderen steigt immer weiter. Belegt wird dies durch das Zitat in einem Report des Pew Centers*: „Alles in allem hegen viele Menschen skeptische Ansichten gegenüber Klimawissenschaftlern; ein größerer Anteil erklärt Vertrauen in Medizin-Wissenschaftler. Aber überall drücken Viele es ,weich‘ aus anstatt eine stark positive Meinung zu äußern“.

Dieses letzte Zitat erklärt zum Teil die abwartende Haltung der Öffentlichkeit. Die Menschen wissen nicht, wem man noch trauen kann. Also umgehen sie das Thema, indem sie es beiseite schieben. In anderen großen Umfragen wird dies unterschiedlich quantifiziert.

Abbildung 1 zeigt eine Umfrage des Pew Centers bzgl. der Prioritäten der Öffentlichkeit, dass das Thema „Klimawandel“ an 18. von 19 Stellen liegt:

[*Wer etwas zum Pew-Center wissen will, klicke hier! Anm. d. Übers.]

Abbildung 1

Abbildung 2 zeigt aussagekräftiger die abwartende Haltung von fast 10 Millionen Menschen. Klimawandel liegt an 16. und letzter Stelle:

Abbildung 2

Politiker, welche behaupten, sich nach den Ergebnissen von Umfragen zu richten, ziehen eindeutig diese Umfragen nicht in Betracht oder ignorieren sie absichtlich. Anders als Trump ergehen sich nach wie vor die meisten Politiker mit dröhnenden Behauptungen über die Notwendigkeit von Maßnahmen. Man führe sich die Ignoranz vor Augen, welche von der kanadischen Umweltministerin Catherine McKenna an den Tag gelegt wird. Mir wird auf schmerzhafte und nur zu deutliche Weise bewusst, wie wenig Ahnung Anwälte von Klimawissenschaft haben. Allerdings ist mir auch bewusst, dass McKenna als Anwältin besser als die meisten Anderen wissen sollte, dass es zu jedem Thema zwei Seiten gibt.

Die Frage ist: Warum verharrt die Öffentlichkeit in einer Abwarte-Haltung? Sie hört fortwährend von Skeptikern, dass CO2 nicht ursächlich ist für die globale Erwärmung oder, wie es jetzt heißt, den Klimawandel ist. Das Problem der Skeptiker ist, dass sie normalerweise nicht mit einer alternativen Erklärung der Änderung aufwarten können, selbst wenn sie sich noch so viel Mühe geben. Dies wird offensichtlich in den Reaktionen auf Beiträge bei WUWT über den Zusammenhang von Sonne und Temperatur. Natürlich würde es die große Mehrheit der Öffentlichkeit selbst dann nicht verstehen, wenn eine prägnante wissenschaftliche Erklärung angeboten werden würde.

Glücklicherweise verstehen die meisten Menschen aber auch, dass sie niemals die ganze Komplexität der Wissenschaft erfassen können. Ich sage glücklicherweise, weil das bedeutet, dass sie irgendetwas anderes zögern lässt. Was sie hören ist, dass es über den normalen wissenschaftlichen Diskurs hinaus Behauptungen von Gesetzesbrüchen gibt. Man betrachte dies im Zusammenhang mit Diskussionen über juristische Maßnahmen. Die Gerichtshöfe argumentieren, dass es bei einem wissenschaftlicher Disput um „deine Studie“ und „meine Studie“ geht, und sie sind nicht qualifiziert zu urteilen. Das ist für sich schon eine traurige Zustandsbeschreibung des Rechtssystems. Wissenschaft war und ist seit mindestens 200 Jahren wesentlicher Bestandteil der Gesellschaft mit enormem Einfluss auf dieselbe, und doch hat das Rechtssystem dem immer noch nicht Rechnung getragen.

Das war der Fall bei der jüngsten deplatzierten Begeisterung über die Anforderung von Richter William Alsup an beide Seiten. Er lud alle Beteiligten ein, spezifische Fragen zu beantworten, was dann als Grundlage für eine „Anhörung“ dienen sollte. Das Heartland Institute und die Autoren des Berater-Dokumentes haben die Gelegenheit ergriffen und ausgezeichnete Arbeit geleistet hinsichtlich der Fragen des Richters. Die Schwierigkeit ist aber, dass sie nur wissenschaftliche Antworten geben konnten. Diese beleuchten die grundlegenden Differenzen zwischen ihrer „Studie“ und der „Studie“ des IPCC. Der Beraterbrief zeigte, dass eine wissenschaftliche Differenz verbleibt und dass…

„…es keinen ,Konsens‘ unter den Wissenschaftlern gibt, dass die jüngste globale Erwärmung hauptsächlich anthropogenen Ursprungs war, geschweige denn dass eine unverminderte anthropogene Erwärmung gefährlich oder katastrophal war oder sein wird“.

Das reicht nicht, und es erklärt, warum die Öffentlichkeit auf Nebenschauplätze ausweicht.

Vorige Woche wurde ich von acht verschiedenen Radiostationen aus den gesamten USA interviewt. Jeder Interviewer dachte, dass die Differenz mehr als wissenschaftlich war. Sie wussten alle Bescheid hinsichtlich einiger der Vergehen, die so effektiv von Anthony Watts und den vielen Beiträgen auf seinem Blog verbreitet worden sind. Ich weiß: wenn die Menschen merken, dass der Unterschied mehr als wissenschaftlich ist, erhebt sich automatisch eine ganz bestimmte Frage. Jeder Interviewer stellte sie in der einen oder anderen Form: Welche Motive gibt es dafür?

Die Eröffnungsbemerkung des Richters bei meinem jüngsten Prozess lautete, dass sein Gerichtshof nicht dazu da sei, die Debatte um globale Erwärmung beizulegen. Dann gab er einige Bemerkungen ab über den Artikel im Mittelpunkt des Falles, welche zeigten, dass er kaum etwas wusste. Er schien nicht zu erkennen, dass es in diesem Fall um „meine Studie“ gegen „eure korrupte Studie“ ging. Mir ging es um das Motiv, um den Missbrauch von Wissenschaft für eine politische Agenda. Der Anwalt der Kläger wusste um die Gefahren für seine Mandanten, wenn dieses Argument etabliert würde.

Er machte das, was in fast jedem Interview oder jeder Debatte über AGW passiert, wenn die Leute bemerken, dass sie nicht gegen Argumente ankommen und nicht darauf vorbereitet sind, die Argumente einzuräumen. Er trat einen persönlichen Angriff los. Es war kein Frontalangriff, aber ein Versuch zu zeigen, dass meine Denkweise und meine Standpunkte so weit außerhalb des Mainstreams liegen, dass ihnen jede Glaubwürdigkeit fehlt. Er meinte, dass ich an eine Verschwörungstheorie glaube. Ich sei ein „Verschwörungs-Theoretiker“. Die Evolution und Anwendung dieses zur Waffe gewordenen Terminus‘ wurde von einem der Autoren wie folgt erklärt:

Verschwörungstheorie“ ist ein Terminus, der augenblicklich Furcht und Ängstlichkeit in den Herzen fast jeder Person in der Öffentlichkeit erweckt, vor allem bei Journalisten und Akademikern. Seit den sechziger Jahren wurde dieses Etikett zu einem disziplinarischen Mittel, welches außerordentlich effektiv war bei der Festlegung bestimmter Ereignisse, die immun sind gegen Untersuchungen oder Diskussionen.

AGW-Befürworter leisten ausgezeichnete Arbeit bei der Marginalisierung von Gegnern als Mitglieder von Randgruppen wie etwa Skeptiker der globalen Erwärmung oder Klimawandel-Leugner. Falls sie damit scheitern, ziehen sie sich auf den Vorwurf zurück, dass man ein Verschwörungs-Theoretiker sei. Dies ist sehr effektiv, weil der größte Teil der Öffentlichkeit nicht in Verbindung gebracht werden will mit Extremisten oder Verlierern. Natürlich ist es Realität, dass es immer zu Verschwörungen kommt, sonst würde die Welt nicht existieren. In meinem Prozess erklärte ich, dass es keine Rolle spielt, ob es eine Verschwörung gibt oder nicht – die Realität ist, dass Wissenschaft für eine politische Agenda missbraucht wird, und das darf niemals geschehen.

Falls man das Argument einer Konspiration akzeptiert, glaubt man normalerweise, dass eine kleine Gruppe dahinter steckt. Dies bestärkt die Öffentlichkeit in der irrigen Ansicht, dass eine kleine Gruppe nicht die ganze Welt zum Narren halten kann. Dies ist eine Erweiterung der Behauptung von Abraham Lincoln, dass man nicht alle Menschen für alle Zeiten hintergehen kann. Allerdings hat die Anthropologin Margaret Mead beobachtet:

Man zweifle niemals daran, dass eine kleine Gruppe nachdenklicher, überzeugter Bürger die Welt verändern kann. Tatsächlich ist das das Einzige, was eine solche Änderung bewirkt hat“.

Langfristig mag die Aussage von Lincoln stimmen, aber kurzfristig kann man das, vor allem, falls man diejenigen marginalisiert, die sich dagegen wehren. Genau das widerfuhr den Wenigen, die es wagten nachzufragen oder herauszufordern. Teil des Problems ist, dass die Öffentlichkeit glaubt, zu einer Verschwörung bedarf es einer großen Gruppe Menschen, aber eine Definition zerschlägt diesen Mythos:

Eine Übereinkunft zwischen zwei oder mehr Personen, einen kriminellen Akt zu begehen oder ein legales Ziel zu verfolgen mittels illegaler Maßnahmen“.

Es gibt Gründe, warum ich so offen angegriffen worden bin, und alle bezogen sich auf die Bedrohung, die ich darstelle. Sie können nicht sagen, ich sei nicht qualifiziert. Ich stellte die Pseudowissenschaft der globalen Erwärmung in Frage, weil das gleiche geschah beim „Konsens“ über eine globale Abkühlung in den sechziger Jahren. Ich entwickelte eine natürliche Fähigkeit zu lehren und komplexe Dinge der Öffentlichkeit verständlich zu erklären. Am Wichtigsten war für mich dabei die Rekonstruktion von Klimaten in der Vergangenheit sowie deren Auswirkung auf die menschliche Kondition. Daher gab ich auch eine Vorlesung zum Thema Geopolitik. Zentrales Thema hierbei war, dass Geographie und Klima die Bühne und Historie das auf dieser Bühne stattfindende Theaterstück sind, welches durch jene Bühne beeinflusst wird. Ich machte, was die meisten Wissenschaftler absichtlich vermeiden: ich studierte Politik und verstand von Anfang an, welche Wissenschaft wie herangezogen wurde. Ich erklärte Motive und Verfahren. Viele Beiträge und öffentliche Vorträge über die gesamte Geschichte kulminierten in der Veröffentlichung einer detaillierten und dokumentierten Erklärung in dem 2014 erschienenen Buch The Deliberate Corruption of Climate Science. Allerdings war ich schon lange vorher Ziel von Angriffen, ziehen sich doch die Gerichtsverfahren diesbezüglich bereits in das 7. Jahr.

Die „Abwartehaltung“ wird sich so lange fortsetzen, bis wir der Öffentlichkeit die Motive hinter den AGW-Behauptungen und -Aktivitäten erklären können. Solange nicht noch mehr Menschen, vor allem Skeptiker, die Motive verstehen und sich äußern, kann es weitere 28 Jahre dauern. Vor mir liegen noch mindestens ein weiteres Dutzend Interviews, so dass vielleicht die Flüster-Propaganda des Internets die Zahl derjenigen exponentiell steigen lässt, die sich aus der Abwartehaltung lösen, weil sie um die Motive wissen. Wir sollten uns beeilen, weil offensichtlich ist, was Obamas Netz-Neutralität und die Anhörungen von Zuckerberg belegen, dass jene, die nach Kontrolle über alles trachten, sich zunehmend des Internets bemächtigen.

Oh, Verzeihung, oder ist das jetzt noch eine Verschwörungstheorie?

Link: https://wattsupwiththat.com/2018/04/15/getting-the-publics-attention-on-global-warming-the-final-challenge/

Übersetzt von Chris Frey EIKE




Im Holozän war der Meeresspiegel um 2 Meter höher – heutige Änderungen gehen im Rauschen unter

Holocene-CO2-10500-Years-Ago-to-1800-AD

Vor dem Beginn der industriellen Revolution im späten 18. und frühen 19. Jahrhundert schwankten die Konzentrationen von Kohlendioxid (CO2) zwischen 260 und 280 ppm.

Innerhalb des letzten Jahrhunderts sind die atmosphärischen CO2-Konzentrationen erheblich angestiegen. Kürzlich haben sie 400 ppm übertroffen.

Wissenschaftler wie Dr. James Hansen sind zu dem Schluss gekommen, dass die vorindustriellen CO2-Werte klimatisch ideal waren. Obwohl weniger optimal, wurden atmosphärische CO2-Konzentrationen bis zu 350 ppm als klimatisch „sicher“ charakterisiert. Es wird jedoch angenommen, dass CO2-Konzentrationen über 350 ppm für das Erdsystem gefährlich sind und dass solche „hohen“ Konzentrationen zu einer raschen Erwärmung, Gletscher- und Eisschichtschmelze und zu einem erschütternden Meeresspiegelanstieg von 3 Meter innerhalb von 50 Jahren führen könnten.

Um diese katastrophalen Ausmaße (3 Meter innerhalb von 50 Jahren) zu erreichen, die von Befürwortern des Meeresspiegelanstiegs vorhergesagt werden, muss die derzeitige „anthropogene“ Änderungsrate von +1,4 Millimeters pro Jahr (seit 1958) sofort auf +61 Millimeter pro Jahr explodieren. Die Wahrscheinlichkeit, dass dies geschieht, ist gering, insbesondere wenn man bedenkt, dass Grönland und die Antarktis zusammen seit 1958 insgesamt 1,54 cm beigetragen haben (Frederiske et al., 2018).

 

 

Steigt der aktuelle Meeresspiegel mit einer beispiellosen „anthropogenen“ Rate? –  Nein.

Trotz des Anstiegs der CO2-Konzentrationen seit 1900 ist der Weltklimarat (IPCC) der Vereinten Nationen zu dem Schluss gekommen, dass der globale Meeresspiegel im gesamten Zeitraum 1901-2010 nur um durchschnittlich 1,7 mm / Jahr gestiegen ist, was 17cm pro Jahrhundert entspricht.

Während der Periode von 1958 bis 2014, bei ansteigenden CO2-Emissionen, ergab eine kürzlich durchgeführte Analyse, dass sich der Anstieg des Meeresspiegels auf 1,3 mm / Jahr bis 1,5 mm / Jahr oder nur 14 cm pro Jahrhundert verlangsamte.

 

Frederiske et al., 2018 „Anthropogene“ globale Meeresspiegelanstiegsrate (1958-2014): liegt bei +14 cm pro Jahrhundert

„Zum ersten Mal wird gezeigt, dass für die meisten Wassereinzugsgebiete der rekonstruierte Meeresspiegeltrend und die Beschleunigung durch die Summe der Faktoren sowie einen großen Teil der dekadischen Variabilität erklärt werden kann. Die Rekonstruktion des globalen, mittleren Meeresspiegels zeigt einen Trend von 1,5 ± 0,2 mm/Jahr im Zeitraum 1958-2014 (1σ), verglichen mit 1,3 ± 0,1 mm/Jahr für die Summe der Faktoren.“

In den letzten paar tausend Jahren hingegen stieg und fiel der Meeresspiegel in einigen Regionen mit Raten von + oder – 0,5 bis 1,1 Metern pro Jahrhundert, das ist 4 bis 7 mal so hoch wie seit 1958.

[[Hinweis: Im Original Bericht und vor allem bei den Kurzfassungen vieler Studien, sind viele Grafiken über „Höhe des Meeresspiegels“ eingeklinkt.
Der Übersicht halber, habe ich nur wenige übernommen. Bitte nutzen Sie die angegebenen Links für mehr Details.
Achten Sie bitte auf die Zeitskala: Jetzt (oder NULL) kann mal ganz rechts oder auch ganz links sein. Der Übersetzer]]

 

Holocene-Cooling-Sea-Level-Africa-Mozambique-Miguel-2018

alle Grafikquellen im Original: Bracco et al., 2014   Whitfield et al., 2017    Strachan et al., 2014 

 Hein et al., 2014    Miguel et al., 2018

 

Hansen et al., 2016

„Kontinuierliche Aufzeichnung der Veränderungen des holozänen Meeresspiegels (von vor 4900 Jahre bis heute). …. Die Kurve zeigt acht hundertjährige Schwankungen des Meeresspiegels von 0,5-1,1 m, die dem allgemeinen Trend der RSL-Kurve (relativer Meeresspiegel) überlagert sind.“

Auch andere Regionen haben in den letzten tausend Jahren starke Schwankungen des Meeresspiegels erfahren, die weit über die heutigen Veränderungen hinausgehen.

Holocene-Cooling-Sea-Level-Denmark-Hansen-16

Das dänische Meer verändert sich innerhalb der natürlichen Variabilität.
Bildquelle:  Hansen et al., 2016

  

Vor ~15,000 – 11,000 Jahren, stieg der Meeresspiegel um plus 4 bis plus 6 Meter pro Jahrhundert

Veränderungen in aktueller Zeit sind auf den Diagrammen der langfristigen Meeresspiegeltrends nicht einmal zu erkennen.

 

  

Holocene-Cooling-Sea-Level-China-Bradley-16

Holocene-Cooling-Sea-Level-Thailand-Scheffers-2012

alle Grafikquellen im Original: Dura et al., 2016 ; Bradley et al., 2016 ; Scheffers et al., 2012  Kane et al., 2017

 

Cronin et al., 2017  

 „Raten und Verlauf des globalen Meeresspiegelanstiegs (SLR) nach dem letzten glazialen Maximum (LGM) sind aus radiometrischen Zeitaltern an Korallenriffen von Barbados, Tahiti, Neuguinea und dem Indischen Ozean sowie Sedimentdaten vom Sunda-Schelf und anderen Orten bekannt.

 Lambeck et al. (2014) schätzen die mittleren globalen Raten während der Hauptphase der Enteisung vor 16,5 bis 8,2 Tausend Jahren bei 12 mm/Jahr [+1,2 Meter pro Jahrhundert] mit schnelleren SLR [Meeresspiegelanstiegs] Raten ( ~ 40 mm/Jahr) [+4 Meter pro Jahrhundert]  während des Schmelzwasserimpulses 1A vor etwa 14.500 bis 14.000 Jahren“.

[englisch: … während des „meltwater pulse“]

Abdul et al., 2017   Anstieg des globalen Meeresspiegels:  +4 Meter pro Jahrhundert (vor 11.450 bis 11.100 Jahren)

 „Wir stellen fest, dass der Meeresspiegel den Klimaschwankungen bemerkenswert gut folgt. Der Anstieg des Meeresspiegels war im frühen Allerød (25 mm/Jahr) schnell, fiel aber sanft in den Jüngeren Dryas (7 mm/Jahr) zurück, bis die Rate auf <4 mm/Jahr ‚plateaued‘, dort als „slow stand“ [~ langsamer Pegelstand] bezeichnet“.

 Es wurden keine Beweise gefunden, die auf einen Sprung des Meeresspiegels zu Beginn des Jüngeren Dryas hinweisen, wie von einigen Forschern vorgeschlagen. Nach dem „Slow-Stand“ beschleunigte sich der Anstieg des Meeresspiegels schnell und erzeugte den 14 ± 2 m hohen Meeresspiegelsprung, bekannt als MWP-1B; dieser trat auf vor 11,45 und 11,1 Tausend Jahren, mit einem Anstieg des Meeresspiegels auf 40 mm/Jahr [+4 Meter pro Jahrhundert]. „

  

Ivanovic et al., 2017   Meeresspiegelanstieg auf der Nordhalbkugel: +3,5 bis +6,5 Meter pro Jahrhundert (vor ca. 14.500 Jahren)

„Während des letzten glazialen Maximums vor 26-19.000 Jahren, erstreckte sich eine riesige Eisdecke über Nordamerika [Clark et al., 2009]. In den folgenden Jahrtausenden, als das Klima sich erwärmte und diese Eisdecke zerfiel, strömten große Mengen Schmelzwasser in die Ozeane [Tarasov und Peltier, 2006; Wickert, 2016].

 Diese Periode, die als „letzte Enteisung“ bekannt ist, umfasste Episoden abrupten Klimawandels, wie die Bölling-Erwärmung [vor ~ 14.7-14.5 Tausend Jahren], als die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um 4° bis 5 ° C anstieg [Lea et al., 2003; Buizert et al., 2014]. Das fiel zusammen mit einem Anstieg des Meeresspiegels um 12-22 m in weniger als 340 Jahren [3,5 bis 6,5 Meter pro Jahrhundert] (Melt water Pulse 1a (MWP1a)) [Deschamps et al., 2012]. „

 

  Zecchin et al., 2015    Anstieg des regionalen Meeresspiegels: +6 Meter pro Jahrhundert (vor 14.500-11.500 Jahren)

 Schmelzwasser-Impulse haben den postglazialen relativen Meeresspiegelanstieg mit Raten von bis zu 60 mm/Jahr [6 Meter pro Jahrhundert] für ein paar Jahrhunderte unterbrochen.

 

Es ist immer offensichtlicher geworden, dass der Meeresspiegel ohne offensichtlichen Zusammenhang mit CO2-Konzentrationen steigt und fällt. Und wenn ein anthropogenes Signal nicht auffallend deutlich mit dem Meeresspiegelanstieg in Verbindung gebracht werden kann (wie Wissenschaftler festgestellt haben), dann wird die größte wahrgenommene existenzielle Bedrohung, die von Befürwortern einer gefährlichen anthropogenen globalen Erwärmung verkündet wird, nicht mehr in Betracht gezogen werden können.

Erschienen auf No Tricks Zone am 12.04.2018

Übersetzt durch Andreas Demmig

http://notrickszone.com/2018/04/12/70-papers-holocene-sea-levels-2-meters-higher-todays-sea-level-change-indistinguishable-from-noise/

Link zur Übersicht über viele der angesprochenen Studien)

70+ Studien: Meeresspiegel 2+Meter höher vor 9.000 – 4.000 Jahren, während die CO2-Werte mit 265ppm „sicher“ waren




Beeinflus­sungen durch Starkregen nehmen in Deutsch­land nicht zu. Mit schlecht ange­wandter Statistik lässt sich aber das Gegen­teil „zeigen“ (Teil 2)

Niederschlag Irland

Kürzlich wurde eine Niederschlagsreihe von Irland veröffentlich [7]. Diese beginnt mit dem Jahr 1711 und dürfte damit die längste, verfügbare Langzeitreihe sein. Anbei eine Sichtung, ob man darin einen Klimawandel-Einfluss mit Erhöhung der Niederschlagsgefährdung und Extremen erkennen kann.

Bild 20 zeigt die Niederschlags-Jahreswerte.
Bis auf zwei Spitzen ganz am Ende (deren Entstehung etwas rätselhaft ist), haben die Maximalwerte und der gleitende Mittelwert nicht zugenommen. Ein Einfluss des Klimawandels müsste sich spätestens seit 1880 und verstärkt nach 1950 (Beginn des „ganz schlimmen Klimawandels) am Mittelwert deutlich erkennbar zeigen, ist aber nicht entfernt zu sehen.

Bild 20 [7] Irland, Monatswerte Niederschlag 1711 – 2016. Gleitender Mittelwert 54 Monate. Grafik vom Autor aus den Daten erstellt
Mit dem Klimawandel sollen die Extreme zunehmen. Das müsste man an zunehmenden Pegeldifferenzen sehen. Im Bild 21, welches diese für die Monatsdaten darstellt (leider löst die Reihe nicht höher auf), sieht man langfristig aber eher eine Abnahme, als Zunahme. Die Jahresdifferenzen im Folgebild verlaufen vollkommen horizontal.

Bild 21 [7] Irland, Differenz der Niederschlags-Monatswerte zum Vormonat 1711 – 2016 und gleitender Mittelwert 24 Monate. Grafik vom Autor aus den Daten erstellt
Bild 22 [7] Irland, Differenz der Niederschlags-Jahreswerte zum Vorjahr 1711 – 2016 und gleitender Mittelwert 36 Jahre. Grafik vom Autor aus den Daten erstellt
Fazit

Selbst in dieser „endlosen“ Langzeitreihe ist kein negativer Einfluss eines Klimawandels auf den Niederschlag, seine Extreme. oder Erhöhung durch größere Differenzen erkennbar.

Für den Autor ist damit belegt, dass der DWD und das Bayerische Landesamt anhand ihrer umfassenden Datensammlung gezeigt haben, dass Starkregenereignisse und vor allem die dadurch hervorgerufene Vulnerabilität in ganz Süddeutschland – und übertragen damit auch in ganz Deutschland – nicht zugenommen haben, eher sogar im Abklingen begriffen sind.
Leider haben es die beteiligten Wissenschaftler und Fachpersonen unterlassen, selbst verfeinerte Analysemethoden anzuwenden, so dass man nicht ausschließen kann – es sogar eher wahrscheinlich ist -, dass diese deshalb im Bericht zu einem falschen Ergebnis gelangten.
Solche traurigen Fälle von Mängeln in wissenschaftlichen Arbeiten finden sich beim Klimawandel leider immer öfter (rein persönliche Meinung des Autors).

Die Unwetter werden immer schlimmer: Je weiter man in die Vergangenheit zurückblickt

Simbach am Inn und Braunsbach

Beginnen wir mit dem Jahr 2016. Damals geschahen in Simbach und Braunsbach zwei extreme Starkregenereignisse. Beide wurden von Fachpersonen dem Klimawandel zugewiesen. Das von Simbach wurde von einem Professor gar als ein „1000-Jahre Ereignis“ erklärt:
[8]ist auch genau das eingetreten, was der Autor „prophezeit“ hatte: Dass das offensichtliche, menschliche Versagen bei den Flut-Ereignissen Braunsbach und Simbach im Jahr 2016 dem Klimawandel zugeschrieben (werden) wird:
Potsdamer neueste Nachrichten: .
.. Dennoch: „Auch in den Niederschlagsdaten kann man eine Zunahme von Extremniederschlägen nachweisen“, so Rahmstorf, der auf Studien des PIK zu dem Thema verweist. Auch der Deutsche Wetterdienst habe festgestellt, dass sich die Zeit verringert hat, in der sich extreme Gewitterregen wie 2016 in Süddeutschland – unter anderem die Flut von Braunsbach – wiederholen …
[9] dpa, 30. Dezember 2016 (Lokalausgabe der nordbayerischen Nachrichten):
In Deutschland war Bayern der Kältepol – Bundesweit war es aber dennoch um 1,4 Grad zu warm … Folge enormer Niederschläge: In Westmittelfranken und in Oberbayern kam es zu katastrophalen Überflutungen. Simbach am Inn versank in einem Jahrtausendhochwasser.

Dabei wird von sogenannten Experten ein Unsinn vermittelt, der nur noch (sehr freundlich formuliert) als hanebüchen bezeichnet werden kann. Obwohl der gerade besprochene Bericht zu Starkregenereignissen eindeutig zeigt, dass die Starkniederschläge im Sommer mit Sicherheit abnehmen, wird das Gegenteil behauptet:
[9] Deutschlandfunk 12.09.2016: Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
Der Klimawandel ist laut Deutschem Klimakonsortium unbestreitbar. Zu den Folgen zählt auch die Gefahr von Starkregen.
Der Klimawandel werde dazu führen, das Starkregen in Deutschland öfter auftreten wird, intensiver sein wird, also länger anhalten wird, so der Vize des Deutschen Wetterdienstes. Sein Fazit mit Blick auf die tödlichen Fluten in Braunsbach:
„Die Message ist: So eine Niederschlagsmenge ist theoretisch in Deutschland nahezu an jedem Ort möglich.
Im Sommer. Betonung: Im Sommer.

Dabei ist längst belegt, dass in beiden Fällen (Simbach und Braunsbach) die enormen Fluten und damit Schäden im Wesentlichen auf menschlichem Versagen beruhen:
Der Autor [9] und andere haben es schon mehrmals beschrieben ;
EIKE 6. Juni 2016: Hintergründe der Unwetter in Süddeutschland. Vergleich von Braunsbach und Niederalfingen
Der plötzliche Starkregen hat nun die drei kleinen Bächlein vor Braunsbach, insbesondere die Orlach, stark anschwellen lassen, die mitgerissenen Steine vom Abhang und die Holzstämme haben den Eingang zur Dole zugeschüttet und der Braunsbach nahm seinen alten Weg durch den Ort, wie er vor der Verdohlung geflossen ist, nur stehen da heute eben Häuser, Straßen und Autos. Der einstige Bachverlauf mit Überschwemmungszone ist bebaut, aber die Wassermassen finden wegen der erhalten gebliebenen Geländeform natürlich den alten Weg zum einstigen Bachbett hin.
Bei Braunsbach kam nun noch dazu, dass das Hochwasser nicht langsam angestiegen ist im Ort, sondern plötzlich donnernd daherkam, was auf den Bruch eines im Oberlauf gebrochenen Erddammes oder mehrerer kleiner Rückhaltedämme hinweist …
Und sogar der Süddeutschen Zeitung – sonst bedingungs- und bedenkenlos klimawandelgläubig – ist es aufgefallen:
Süddeutsche Zeitung, 9. Juni 2016: Hochwasserkatastrophe Rohr löste offenbar Flutwelle in Simbach aus
… Die Ursache der tödlichen Flutkatastrophe in Simbach am Inn war offenbar ein verstopftes Rohr. Weil eine Unterführung des Simbachs durch Bäume und Sträucher verstopft war, hatte sich vor einem Straßendamm im Norden der Stadt ein gigantischer Stausee gebildet. Als dieser Damm brach, ergoss sich am Nachmittag des 1. Juni eine riesige Flutwelle über die Stadt.
Das einzig „tausendjährig“ sich Wiederholende daran ist das Unvermögen von Behörden, in bekannt sehr gefährdeten Bereichen für eine sichere Infrastruktur zu sorgen. Wenn über mehrere Jahrzehnte nichts (mehr) passiert ist, wird einfach jede „Vorsicht“ vergessen und die Behörden wenden sich „wichtigeren“ Dingen zu: Die Gemeinde Simbach zum Beispiel der CO2-Verringerng, um einen Preis zu gewinnen.
Damit niemand der Geschädigten deswegen Regressansprüche erheben kann, findet sich jedoch immer eine „Fachstelle“, welche die Behörden von der Verantwortung entlastet und diese dem Klimawandel zuweist – wie bei Simbach leibhaftig geschehen.
WELT N24, 16.06.2016: [3] Die Analyse der Simbacher Sturzflut ist beunruhigend
Zwei Wochen nach der Flutkatastrophe von Niederbayern verheißt die erste vorsichtige wissenschaftliche Bewertung nichts Gutes für die Zukunft: Eine vergleichbare Wetterlage wie Ende Mai und Anfang Juni hat es nach Einschätzung eines Experten noch nie gegeben – und technische Schutzmaßnahmen gegen so genannte tausendjährige Hochwasser gebe es in keinem Staat der Welt. Das sagte Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.
Phänomen neuer Ausprägung“
Tausendjähriges Hochwasser
– im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.

Um die Ungeheuerlichkeit zu verstehen, muss man sich den Tages-Niederschlagsverlauf nur seit 1951 ansehen. Der rote Pfeil kennzeichnet das „Jahrtausendereignis“, welches nach dem Professor nur einmal alle Tausend Jahre vorkommen soll.
Dem Bayerischen Landtag hat in der Aussprache zum Unglück die Aussage des Professors jedoch genügt. Keine Partei wollte wohl ein „anderes“ Ergebnis sehen. Und um selbst die (jedem zugänglichen) Daten nachzusehen, sind die für Klimafragen zuständigen Minister*innen und Fachpersonen der Parteien wohl nicht ausreichend bezahlt (und motiviert).

Bild 23 [9] Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt
Während viele, wie zum Beispiel die Bayerische Umweltministerin (inzwischen nicht mehr im Amt), sehr freundlich ausgedrückt, überwiegend nur vollkommene Unkenntnis zeigen, weiß eine Partei zu allem immer (die) eine Lösung:
Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
… Langfristig muss natürlich die Ursache dieser Starkregenereignisse benannt und bekämpft werden: der menschengemachte Klimawandel. Wir setzen uns dafür ein, die erarbeiteten Ziele der Klimakonferenz endlich in Nationales Recht zu gießen und umzusetzen.

Das Afrikafestival vom Jahr 2013 in Würzburg

Im Jahr 2013 wurde das Festival durch den Main überschwemmt und musste abgebrochen werden. Ursache soll der Klimawandel gewesen sein.
DIE WELT, 05.12.14: Würzburg (dpa/lby): Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte der Festivalleiter …
Gegen den Klimawandel helfen eben leider keine Fakten, weshalb man auch schon lange keine Fachleute mehr fragt:
Aussage des Wasser-Wirtschaftsamtes Würzburg: [13]
„Die Hochwasser jüngeren Datums nach 1909 sind historisch unbedeutend (20-Jahre Ereignisse)

Anhand dem Pegelverlauf von Bild 24 wagt der Autor die Aussage, dass auch dafür etwas anderes als der Klimawandel die wirkliche Schadensursache war [9]. Irgend eine Behörde hat der Veranstaltung ja wohl die Fläche zugewiesen.

Bild 24 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. Grafik vom Autor anhand der Datentabelle der Stadt Würzburg erstellt.

Im Jahr 1926 war „der Stärkste Regen seit Menschengedenken“

Die in der Zeitungsmeldung für Magdeburg angegebenen, 100 mm Regen von Nachmittag (die sich in den DWD-Daten von Magedeburg nicht in dieser Höhe zeigen) bis zum nächsten Morgen sind so viel, wie in der dafür „berüchtigten“ Zone bei Simbach zum „Jahrtausendereignis“ im Jahr 2016. Für Madgeburg also geradezu ein Extremwert, vor allem, da es recht großflächig passiert sein soll (in Simbach war diese Zone sehr eng begrenzt).

Bild 25 Zeitungsausschnitt von 1926

Da es natürlich interessant ist, eine solche Meldung anhand von Messdaten zu verifizieren, anbei die Daten der DWD-Messstation Magdeburg. Das Ereignis von 1926 ist sofort erkennbar. Und auch, dass sowohl beim 1-tägigen Starkregen, als auch beim 2-tägigen wieder keine Erhöhung durch einen Klimawandel zu sehen ist.
Für die damaligen Einwohner muss es aber wie eine Zäsur vorgekommen sein. Seit Beginn der Aufzeichnung im Jahr 1881 geschahen 45 Jahre nur moderate Eintages-Niederschläge. Und dann urplötzlich die doppelte Menge. Und es dauert nun über 90 Jahre an, dass das Klima dieses neue Verhalten langsam wieder „abbaut“. Ob und wlcher Zyklus sich dabei ergeben könnte, wird man vielleicht in weiteren 100 Jahren erkennen, oder ahnen können.
Aber auch dazu die Vorstellung, heutzutage träte solch eine Niederschlagsereignis wie 1926 wieder auf: Der wie vorhergesagt eingetretene Weltuntergang durch den Klimawandel würde unisono ausgerufen.

Bild 26 Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt

Bild 27 Zwei-Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt

Das bisher schlimmste, bekannte Niederschlagsereignis in Deutschland geschah im Jahr 1342

Im Hochwasser-Pegelbild des Mains (Bild 24) und am folgenden Tor mit Pegelständen ist der höchste Pegel ganz am Anfang und kennzeichnet das Jahr 1342. Zu dieser deutlich vor-industriellen Zeit, als angeblich Temperatur und CO2 „im Einklang“ waren, geschah ein heute unvorstellbares Starkregenereignis, dessen Folgen teilweise noch heute sichtbar sind:
Das Magdalenenhochwasser.
Die weiteren Pegelstände zeigen (wie bei Würzburg und der Lahn bei Limburg) ebenfalls sehr demonstrativ, in welchen (meist vor-industriellen) Jahrhunderten es wirklich sintflutartig geregnet hat. Man kann richtig sehen, wie über die Jahrhunderte die Starkregenmengen (dazu bei unversiegelten Flächen) abgenommen haben müssen.

Bild 28 Links WIKIPEDIA: Magdalenenhochwasser, Hochwassermarken am Packhof zu den Hochwassern in Hann, Münden am Zusammenfluss von Werra und Fulda zur Weser. Die oberste Markierung zum 24. Juli 1342 ist der Pegelstand des Magdalenenhochwassers. Rechtes Bild: Historische Hochwassermarken der Lahn bei Limburg. Quelle: Regierungspräsidium Gießen Hochwasserrisikomanagementplan 2014

WIKIPEDIA: Das Magdalenenhochwasser war eine verheerende Überschwemmungskatastrophe, die im Juli 1342 das Umland zahlreicher Flüsse Mitteleuropas heimsuchte. Die Bezeichnung geht auf die damals übliche Benennung der Tage nach dem Heiligenkalender zurück, hier auf den St.-Magdalenentag am 22. Juli. Bei diesem Ereignis wurden an vielen Flüssen die höchsten jemals registrierten Wasserstände erreicht. Möglicherweise handelt es sich um das schlimmste Hochwasser des gesamten 2. Jahrtausends im mitteleuropäischen Binnenland.
… Betroffen waren unter anderem
Rhein, Main, Donau, Mosel, Moldau, Elbe, Weser, Werra und Unstrut. Allein in der Donauregion starben über 6000 Menschen. Das Hochwasser wird in den Chroniken zahlreicher Städte erwähnt, so in Würzburg, Frankfurt am Main, Mainz, Köln, Regensburg, Passau und Wien. Fast alle Brücken wurden damals zerstört, Flussläufe änderten sich. In Bamberg riss die Regnitz eine „Brücke mit Turm“ ein. Im Solling wurde das Dorf Winnefeld zerstört. Die Stadt Duisburg entwickelte sich aufgrund der durch das Hochwasser hervorgerufenen Verlandung des Altrheinarms von einer blühenden Handelsstadt zu einer unscheinbaren Ackerbürgerstadt. Die topographischen Konsequenzen des Hochwassers können heute noch nachgewiesen werden. Die Masse des erodierten Bodenmaterials betrug ca. 13 Milliarden Tonnen.[2] Das entspricht etwa der Menge, die bei normalen Wetterbedingungen in 2000 Jahren verloren geht.
… In den Jahren nach dem Magdalenenhochwasser folgten kalte und nasse Sommer, die in Verbindung mit dem erodierten Boden zu
Ernteeinbußen führten. In deren Folge kam es zu massiven Hungersnöten, welche die Auswirkungen der in den Jahren 1347 bis 1353 grassierenden großen europäischen Pestepidemie zusätzlich verschlimmerten

Korrelieren Überschwemmungen und Temperaturverlauf in Deutschland?

Dazu nochmals der Pegelverlauf bei Würzburg, der gut mit den Pegelbildern anderer Flüsse (Bild 28) übereinstimmt, diesmal in eine Temperaturrekonstruktion kopiert.
Wie man überdeutlich sieht, gibt es gute Korrelationen, allerdings abhängig von den Zeiträumen in zwei entgegengesetzten Richtungen. Und ausgerechnet die allgemein verkündete: Mehr Klimawandel = mehr Überschwemmungen, zeigt sich überdeutlich als falsch.

Bild 29 Globaler Temperaturverlauf seit dem Jahr 1000 (Quelle: Wikiwand: Kleine Eiszeit) und Hochwassermarken des Mains bei Würzburg vom Autor übereinander kopiert

Extremniederschläge in der Wüste Namib

In historischer Zeit gab es auch anderswo exemplarisch extremste Niederschlagsereignisse, welche heute unvorstellbar sind, zum Beispiel in der Namib-Wüste (Südafrika). Die Datierung ist ungenau, die Extremereignisse müssen aber zwischen 1450 … 200 Jahren vor heute [13] – also ebenfalls während der kleinen Eiszeit geschehen sein.

[13] … Eine deutsche Forschertruppe wunderte sich, dass in der Namib-Wüste riesige Felsen wie von großen Flüssen angeschwemmt herumliegen (Bild 3). Bei der Analyse dieses Phänomens kamen sie dahinter, dass es vor nicht allzu langer Zeit dort so feucht gewesen ist, dass sich hinter den Stranddünen riesige Seen bildeten, welche beim Überlaufen die Felsbrocken mitrissen und versetzten – und das über mehrere Klimaperioden und auch in geschichtlicher Zeit

Bild 30 [12] Teils mehrere Meter messende Blöcke im Bereich der Uniab-Mündung (Skelettküsten-Wüste, zu deren Transport hoch-energetische Flutwellen erforderlich waren. Beim Endringen von Wassermassen in den Erg brachen Dünen zusammen und wurden schluffreiche Sedimente (Suspensions-Ablagerungen) ausgebreitet. Canyon-artige Erosionsrinnen entstanden beim Ausbruch eines „Dünen-Stausees“. Foto: Blümel 2001.
Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] FOCUS ONLINE 07.03.2018: Hochwasser, Trockenheit und WirbelstürmeWetterextreme in der Bundesrepublik: DWD empfiehlt Deutschen sich schon jetzt zu wappnen

Beispiel für Wetterextreme nannte der DWD-Fachmann die länger andauernde Trockenheit im vergangenen Frühjahr und das „anhaltend trübe Wetter“ von September 2017 bis Januar 2018.

[3] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[4] Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft

[5] Murphy, C et al. (2017): A 305-year continuous monthly rainfall series for the Island of Ireland (1711-2016)

[6] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[7] Murphy at al. 2018: Island of Ireland monthly rainfall series 1711-2016 (IoI_1711)

[8] EIKE 31.01.2018: Endlosschleife Klimaangst

[9] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[10] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[11] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[12] Nova Acta Leopoldina NF 108, Nr. 373, 125-149 (2009): Holozäner Klima- und Landschaftswandel in der Namib?

[13] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

[14] Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)




Beeinflus­sungen durch Starkregen nehmen in Deutsch­land nicht zu. Mit schlecht ange­wandter Statistik lässt sich aber das Gegen­teil „zeigen“ (Teil 1)

Doch warum Herr Steinmeier so ungern vor der eigenen Türe kehrt und seine Untertanen auf Netzwerke – wie zum Beispiel EIKE – angewiesen sind, um Wahrheiten zu erfahren, sei anbei anhand einer kürzlich erfolgten Meldung zu Wetterextremen gezeigt.

Anhaltend trübes Wetter“ ist ein Beispiel für Extreme durch den Klimawandel

Für den DWD ist der „Klimawandel“ ein lukratives Geschäftsfeld geworden. Alle Städte und Gemeinden Deutschlands sind mit Vulnerabilitätsexpertisen für ihre (aktuell ca. 600) Klimamanager*innen zu versorgen, die schlimme Wetterzukunft ist in 25 km-Quadraten aufgelöst bis zum Jahr 2100 zu berechnen, flächendeckende Messnetze sind aufzubauen, zu versorgen, zu betreuen, auszuwerten und und und. Diese viel Geld und Personal einbringende „Maschinerie“ hat jedoch nur eine Zukunft, wenn diese möglichst klimadüster ausgemalt wird. Und das macht der DWD gemeinsam mit unseren Medien inzwischen konsequent und regelmäßig:
FOCUS ONLINE 07.03.2018: [2] Hochwasser, Trockenheit und Wirbelstürme. Wetterextreme in der Bundesrepublik: DWD empfiehlt Deutschen sich schon jetzt zu wappnen
… Der Deutsche Wetterdienst rechnet für die Zukunft mit mehr Stürmen, extremen Regenfällen und Hitzewellen aufgrund der Klimaerwärmung. Zwar sei es schwierig, eine Zunahme solcher Extremwetter-Ereignisse statistisch nachzuweisen, sagte DWD-Experte Thomas Deutschländer am Dienstag in Berlin.
… Es scheine aber dennoch „sinnvoll, sich schon heute auf eine Zukunft mit mehr Wetter- und Klimaextremen auch in Deutschland einzustellen“. Auch im Jahr 2017 habe sich der Klimawandel in Deutschland und global deutlich bemerkbar gemacht, sagte Deutschländer. Weltweit war es eines der drei wärmsten Jahre seit Beginn der Aufzeichnungen 1881. Als Beispiel für Wetterextreme nannte der DWD-Fachmann die länger andauernde Trockenheit im vergangenen Frühjahr und das „anhaltend trübe Wetter“ von September 2017 bis Januar 2018.

In der Darstellung des DWD-Experten beachte man, dass außer einer (geringen) Erhöhung der Temperatur seit der letzten, schlimmen Kaltzeit, eigentlich nichts Konkretes berichtet wird und dieser zugibt, dass ein Nachweis für Klimawandel-bedingte Extremereignisse nicht möglich ist. Aber „sinnvoll“ ist es halt immer, Angst zu haben und sich für die Zukunft auf Extreme einzustellen.

Extremereignisse

Zur Wiederholung: Das IPCC gibt in seinem letzten Sachstandsbericht AR5 zu, dass sich weltweit eine Zunahme von Extremereignissen nicht belegen lässt [6].
Aktuelle Studien kommen zu dem Ergebnis, dass sich an der damaligen, (ehrlichen) IPCC-Aussage seitdem nichts geändert hat.
Kelly MJ, 2016: [5] Trends in Extreme Weather Events since 1900 – An Enduring Conundrum for Wise Policy Advice
Abstract
It is widely promulgated and believed that human-caused global warming comes with increases in both the intensity and frequency of extreme weather events. A survey of official weather sites and the scientific literature provides strong evidence that the first half of the 20th century had more extreme weather than the second half, when anthropogenic global warming is claimed to have been mainly responsible for observed climate change. The disconnect between real-world historical data on the 100 years’ time scale and the current predictions provides a real conundrum when any engineer tries to make a professional assessment of the real future value of any infrastructure project which aims to mitigate or adapt to climate change. What is the appropriate basis on which to make judgements when theory and data are in such disagreement?

Grobe Übersetzung:
Es ist weit verbreitet und wird geglaubt, dass die vom Menschen verursachte globale Erwärmung mit einer Zunahme sowohl der Intensität als auch der Häufigkeit extremer Wetterereignisse einhergeht. Eine Untersuchung der offiziellen Wetterlagen und der wissenschaftlichen Literatur liefert starke Beweise dafür, dass in der ersten Hälfte des 20. Jahrhunderts extremere Wetterlagen herrschten als in der zweiten Hälfte, als die anthropogene globale Erwärmung hauptsächlich für den beobachteten Klimawandel verantwortlich war. Die Diskrepanz zwischen realen historischen Daten auf der 100-Jahres-Skala und den aktuellen Vorhersagen stellt ein echtes Problem dar, wenn ein Ingenieur (Anmerkung: In Deutschland sind das zum Beispiel die 600 kommunalen Klimamanager*innen) versucht, den tatsächlichen zukünftigen Wert eines Infrastrukturprojekts, das den Klimawandel abmildern oder anpassen soll, professionell zu bewerten . Was ist die geeignete Grundlage, um Urteile fällen zu können, wenn Theorie und Daten nicht übereinstimmen?

Niederschlag Deutschland

Eines kann man schon vorab festhalten: Simulationen zum Niederschlag sind die mit den schlechtesten Ergebnissen überhaupt. Simulationen zu Starkregenereignissen dürften den Wahrheitsgehalt einer Glaskugel (vor der ein Mensch und kein Computer sitzt) kaum erreichen (rein persönliche Meinung des Autors, der aber Fachleute – natürlich nicht so „hart“ formuliert, im Wesentlichen zustimmen).
DWD Schrift, Paul Becker at al., 07.2016: [10] Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung
Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.
Zum Schluss wird der DWD ganz „genau“ und sagt, dass derzeit nichts bekannt, aber alles möglich erscheint:
[10] …
Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[11] Der Zeitraum ist aber zu kurz, um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.
Macht aber nichts. Seit der Digitalisierung bestimmten Computer(Programme) wie die Welt wirklich aussieht.

Dazu vorab die globalen Niederschlagsdaten des DWD für Deutschland:
-Jahresniederschlag: Seit 1881 hat sich der Mittelwert um ca. 6,25 % erhöht. Diese Änderung liegt ziemlich sicher unter der Messgenauigkeit (der älteren Stationsabdeckung Deutschlands). Seit 1940, spätestens 1960 (eine kalte Wetterperiode) hat sich am Mittelwert nichts mehr verändert.
-Sommerniederschlag: Der Mittelwert lag im Jahr 2017 auf genau dem Wert vom Jahr 1881. Dabei soll durch die Erwärmung der Sommerniederschlag doch stark zunehmen (warme Luft nimmt mehr Feuchte auf).

Bild 1 Jahres-Niederschlag Deutschland von 1881 – 2017, Simulation bis 2100. Quelle: DWD Klimaatlas. Grafik vom Autor ergänzt

Bild 2 Sommer-Niederschlag Deutschland von 1881 – 2017, Simulation bis 2100. Quelle: DWD Klimaatlas. Grafik vom Autor ergänzt

Fazit

Daraus lässt sich nur ableiten, dass bisher in der wahren Natur keine Anzeichen bestehen, der Niederschlag würde sich mit einem Klimawandel signifikant verändern. Schon gar nicht, dass es im Sommer wegen der Wärme mehr regnen würde, was die Physik doch vorschreibt. Nach dieser (Anwendung der) Physik müsste die Sahara die regenreichste Gegend der Welt sein – wenn nicht das Klima – und der Zusatz in der Physik: Niederschlag gibt es nur bei Temperaturdifferenzen – dazwischenfunken würde.

Starkregen-Ereignisse in Deutschland

Zu Starkregen hat der Autor schon einiges für EIKE geschrieben. Eine Darstellung mit vielen Langzeit-Starkregenverläufen findet sich zum Beispiel im Artikel:
EIKE 12.08.2017: [3] Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

Aus den darin gezeigten Starkregen-Verläufen lässt sich entnehmen, dass selbst 100 Jahre lange Zeitreihen beim Niederschlag für eine sichere Trendaussage nicht ausreichen.
Der Grund: Die Variabilität von Starkregenereignissen ist zu hoch und die Messgenauigkeit selbst in Deutschland, aufgrund der nicht ausreichenden Mess-Abdeckung, zu gering.
Natürlich lassen sich in solchen Verläufen viele Trends erkennen. Doch bei ehrlicher Betrachtung sieht man anhand ausreichend langer Messreihen von über 100 Jahren, dass diese alles, aber nicht stabil bleiben, weil unterlagerte Zyklen oder auch Einzel-Wetterlagen eine zu starke, übergeordnete Rolle spielen.
Man kann sicher sein, dass es bisher keinem Programmierer gelungen ist, die Ursachen dieser Variabilitäten auch nur im Ansatz formelmäßig zu erfassen und in Simulationsprogrammen richtig abzubilden. Das nächst Problem: Nach welchen Verläufen soll man die Parametrierungen dann kalibrieren, ist ebenfalls (nach Ansicht des Autors) vollkommen ungelöst.

Eines sieht man aber: Eine Zunahme durch einen wie auch immer gearteten „Klimawandel“ findet nicht statt!

Bild 3 [3] Annaburg, Sachsen-Anhalt, Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170
Bild 4 [3] Annaburg, Sachsen-Anhalt, 2-Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Starkregen-Ereignisse in Süddeutschland

Nun sind Betrachtungen von Amateuren nicht ausschlaggebend. Wozu hat man zum Beispiel den DWD mit seinen Fachleuten, die bestimmt wirklich fundierte(re) Aussagen geben können?

Und solche Fachleute haben ihre Aussagen vor einiger Zeit zusammen mit dem zuständigen, Bayerischen Landesamt in Dokumentationen zusammengefasst [1]. Anhand einer solchen soll anbei der Frage nachgegangen werden, ob Starkregenereignisse in Deutschland zugenommen haben.
Leider ist in dieser Dokumentation nur Süddeutschland betrachtet, doch für einen Überblick sollten die Aussagen auch auf ganz Deutschland übertragbar sein, vor allem, da Süddeutschland – konkret Bayern -, besonders hart – sozusagen als ein „Hotspot“ – vom Klimawandel betroffen scheint:
Bayernkurier – Bayerische Klimapolitik für das 21. Jahrhundert
Sintflutartige Regenfälle, extreme Dürreperioden oder frühlingshafte Temperaturen im Winter: Der anhaltende Klimawandel macht sich zunehmend auch in Bayern bemerkbar. Es ist höchste Zeit zu handeln – diese Auffassung teilt auch Umweltministerin Ulrike Scharf … Die Beispiele zeigen: Auch in Bayern ist der Klimawandel mit den Händen zu greifen.

Der Monitoringbericht 2016 zum Niederschlag in Süddeutschland

Im Sommerhalbjahr nehmen die Starkregenereignisse flächenübergreifend ab!

Bayerisches Landesamt für Umwelt: [1] Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete
Dieser Ergänzungsbericht untersuchte die Extremniederschläge als Ein-Tages-Ereignisse von Bayern und Württemberg seit 1931 und ist sicher repräsentativ. Am Anfang steht:
[1] … Die Trends im Starkniederschlag (Dauer=24h) sind uneinheitlicher als im Gebietsniederschlag. Hier gibt es weiterhin regional klare positive Trends im Winterhalbjahr (bis +33 %), eine Voraussetzung für eine Zunahme der winterlichen Hochwasserlagen. Im Sommerhalbjahr sind die Trends regional uneinheitlich ohne eindeutige Entwicklung, aber häufig stärker ausgeprägt als beim Gebietsniederschlag …
„Übersetzt“ ist damit ausgesagt: Das Rechercheteam der Wissenschaftler (und das sind eine ganze Reihe), konnte im Sommer für ganz Süddeutschland „keine eindeutige Entwicklung“ der Starkregenereignisse feststellen: Es gibt im Sommerhalbjahr nämlich keine „Klimawandel-bedingte“ Zunahme!, im Winter gibt es „regional klare, positive Trends“, also höflich umschrieben, ebenfalls keine flächenübergreifende Verstärkung.

Als Bild (Bild 5) sieht das wie folgt aus: Im Sommer flächenübergreifend abnehmende Starkregenereignisse, unterbrochen von wenigen, gering positiven Gegenden:

Bild 5 [1] Abb. 3: Entwicklung der Gebietsniederschlagshöhe im hydrologischen Sommerhalbjahr, relativer Trend (Änderung in Prozent vom Mittelwert 1931 bis 2015). Vom Autor ergänzt
Die im Bild angegebenen Änderungswerte sind die linearen Regressionen seit 1931. Das ist (auch über Werkstudent*innen) bequem auszuwerten, liefert aber keine wirkliche Vulnerabilitätsaussage. Wegen der unterlagerten Zyklen nicht einmal einen „handhabbaren“ Trend.
Am Beispiel der „besonders stark betroffenen“ Gebiete R7 und Mo4 (+4,1 % nach über 90 Jahren sind beim Niederschlag weniger als Rauschen), kann man es gut sehen:
Die Bilder 6.x zeigen dazu die Niederschlagsverläufe. Die Regressionsgerade (durchgezogene, schwarze Linie) zeigt zwar die leichte Erhöhung an, aber man sieht:
Gebiet R7: Seit 1970 keine Erhöhung erkennbar. Der Mittelwert (rote Linie) hat den Stand von 1931
Gebiet Mo4: 1935 war der höchste Tagesniederschlag. Der Mittelwert (rote Linie) liegt deutlich unter dem Stand von 1931.
Insgesamt bleibt als Fazit: Obwohl die sture Anwendung der linearen Regression einen leichten Anstieg ergibt, hat die wirkliche Gefährdung abgenommen und ein Gefahrenanstieg durch einen Klimawandel ist definitiv nicht erkennbar – nur eine sehr große Variabilität.
Berechnet man den Mittelwert über ganz Süddeutschland anhand von Bild 5, kommt man auf -2,1 % seit 1931.

Bild 6.1 [1] Gebiet R7, Verlauf Starkregenereignisse Sommerhalbjahr von 1931 – 2015. Hilfslinien vom Autor ergänzt
Bild 6.2 [1] Gebiet Mo4, Verlauf Starkregenereignisse Sommerhalbjahr von 1931 – 2015. Hilfslinien vom Autor ergänzt
Macht aber nichts. Was interessieren Daten, wenn das Volk im Sinne unseres Bundespräsidenten „richtig“ zu informieren ist, weil es sich im Internet sonst mit „Lügen“ versorgt:

Bayerischer Rundfunk, Homepage Stand 03.03.2017: Hintergrund Klimawandel
Mehr Wärme – mehr Extremniederschläge
… Höhere Temperaturen bedeuten aber nicht schöneres Wetter, im Gegenteil: Durch erhöhte Lufttemperaturen verdunstet mehr Wasser. Mancherorts häufen sich dadurch Dürreperioden, wie sie der Norden Bayerns immer häufiger erlebt. Zugleich kann eine wärmere Atmosphäre auch immer mehr Wasserdampf aufnehmen: Mit jedem Grad Erwärmung kann die Atmosphäre sieben Prozent mehr Wasser speichern – und als Niederschlag wieder abgeben. Zugleich vergrößern höhere Lufttemperaturen auch das Gewitterrisiko.

Dürreperioden

Weil es aufgrund der BR-Information als Ergänzung passt. Der Autor hat für den Norden Bayerns, welcher „Dürreperioden … immer häufiger erlebt“ die Dürreperioden für das in Nordbayern liegende Nürnberg als Grafik erstellt (Bild 6).
Wieder sieht man deutliche Zyklen (welche eine Aussage durch lineare Regression sinnlos machen).
In Summe haben die langen Perioden ohne Regen jedoch abgenommen. Der Jahres-Mittelwert zeigt ebenfalls keinerlei Anstieg, sondern eine leichte Verringerung. Die Jahressumme der Tage ohne Niederschlag zeigt ebenfalls keinen Anstieg.

Bild 7 Flughafen Nürnberg 1955 – 2017. Anzahl zusammenhängender Tage ohne Niederschlag. Quelle: DWD-Station 3668. Grafik vom Autor erstellt.

Bild 8 Flughafen Nürnberg 1955 – 2017. Anzahl zusammenhängender Tage ohne Niederschlag, gleitende Jahresmittelwerte. Quelle: DWD-Station 3668. Grafik vom Autor erstellt.

Bild 9 Flughafen Nürnberg 1955 – 2017. Jahressumme Tage ohne Niederschlag. Quelle: DWD-Station 3668. Grafik vom Autor erstellt.

Fazit

Die BR-Information: „ … häufen sich dadurch Dürreperioden, wie sie der Norden Bayerns immer häufiger erlebt …“ lässt sich bei der Betrachtung über einen längeren Zeitraum nicht wirklich nachvollziehen. Man wagt sogar, daran zu zweifeln. Vielleicht hängt das Ergebnis auch von der Definition „Dürreperiode“ ab.

Auch die „Überhitzung“ Nordbayerns hält sich in Grenzen. In den letzten 33 Jahren ist die Maximaltemperatur in Franken (gleichzeitig die höchste Temperatur Deutschlands) um (nicht messbare) 0,1 Grad „gestiegen“. Und selbst das ist nicht sicher:
EIKE 24.09.2016: Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“

Im Winterhalbjahr nehmen Starkregenereignisse zu. Aber nur bei stur angewandter, linearer Regression

Im Winterhalbjahr lässt sich laut [1] der Extremniederschlag genauer ermitteln:
[1]
Insgesamt muss man festhalten, dass der maximale Sommerniederschlag damit weniger genau erfasst werden kann, als der winterliche Niederschlag. Entsprechend sind Trendaussagen im speziellen beim Starkniederschlag für das Sommerhalbjahr ungenauer als für winterliche, meist flächige Niederschläge ...
Wie die Ergebnisse im Winterhalbjahr in Süddeutschland anhand linearer Regressionen ermittelt seit 1931 aussehen, zeigt Bild 10.

Bild 10 [1] Abb. 4: Entwicklung der max. 1-tägigen Gebietsniederschlagshöhen im hydrologischen Winterhalbjahr, relativer Trend (Änderung in Prozent vom Mittelwert 1931 bis 2015). Vom Autor ergänzt
Im Gegensatz zum Sommerhalbjahr gibt es überwiegend positiv tendierende Zonen und deren Änderungen sind erheblich größer.

Zonen mit +26,5 … 32,5 % werden einen steilen Anstieg ausweisen …

Würde man bei diesen Zahlen annehmen. Jedenfalls scheint ein sicherer Beleg für den schlimmen Einfluss des AGW-Klimawandels offensichtlich.
Die Fragestellung ist aber auch hier: Führt die lineare Regression zu sinnvollen Aussagen?

Dazu hat sich der Autor den Bereich mit den höchsten, positiven Änderungswerten vorgenommen (M1, D8, M2, D1).

Bild 11 [1] Gebiet M1 (+31,4 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Bild 12 [1] Gebiet D8 (+32,5 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Bild 13 [1] Gebiet M2 (+30,2 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Bild 14 [1] Gebiet E1 (+26,5 % Winterhalbjahr). Verlauf Winterhalbjahr, Sommerhalbjahr Starkregenereignisse
Alle Gebiete in dieser Zone zeigen im Sommerhalbjahr eine abnehmende, maximal seit 1931 gleichlaufende Tendenz.
Im Winterhalbjahr werden die Verläufe komplexer.
– Einmal sind die Starkniederschläge im Winterhalbjahr generell mit (teils erheblich) geringerem Volumen als im Sommer. Damit dürften diese gar keine zusätzliche Gefährdung bedeuten.
– Bei keinem Winterniederschlag steigen die Maximalpegel signifikant an.
– Bei keinem Verlauf lässt sich schlüssig folgern, dass die Starkniederschlags-Spitzen durch einen „Klimawandel“ erkennbar zunehmen würden.

Fazit

Die Angabe: „+30 % relativer Trend bei Starkregenereignissen“ hat mit der wirklichen Gefährdung nichts zu tun. Die wirklichen Gefährdungen durch Starkregenereignisse haben selbst in den nach diesen Auswertungen von starken Zunahmen betroffenen Gebieten eher abgenommen. Auf keinen Fall nehmen sie weiterhin signifikant zu:
-In allen! dieser vier als hoch signifikant mit hohem Zuwachs ausgewiesenen Gebieten haben die Starkregen-Spitzen nach 1990 (nur in einer Fläche erst kurz danach) abgenommen..
Die sture (weil bequeme) Anwendung der linearen Regression führt zu falschen Aussagen.

Bei höherer Auflösung nehmen auch die Winterereignisse eher ab

Dass die sture Verwendung der linearen Regression über die Jahreswerte zu falschen Aussagen führt, lässt sich mit den Tageswerten zeigen.

Im folgenden Bild 15 sind die Niederschlags-Tageswerte von drei Messstellen im stark positiven Gebiet E1 übereinander gelegt.
-Alle drei Messstellen zeigen seit ca. 1980 eine Abnahme der höchsten Starkregen-Spitzenwerte. Der letzte Verlauf zeigt zusätzlich, dass selbst Betrachtungen seit 1931 (wie im Kliwa-Bericht) zu falschen Aussagen führen: Wenige Jahre vorher war der höchste Tages-Starkregenpegel seit über hundert Jahren. Seitdem hat der Maximalwert stetig abgenommen!

Bild 15 Tagesniederschlag (Gesamtjahr) Stationen Marktredwitz 3191, Rehau 4109, Marktleuthen 3188 (1901 – 2017)

Detailansicht Marktleuthen

Auch die noch detailliertere Sichtung bestätigt, dass die Starkregen nicht durch einen „Klimawandel“ zunehmen.

Dazu nochmals die Langzeitreihe von Marktleuthen. Bild 16 zeigt wieder den Jahresverlauf aus Bild 15.

Bild 16 E1 Marktleuthen Tagesniederschlag (Gesamtjahr) 1901 – 2017. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Dazu nun der gleitende Jahresmittelwert (Bild 17). Seit 1967 ist er abnehmend, die Spitzenwerte(Bild 16) sind es seit 1924.

Bild 17 E1 Marktleuthen Tagesniederschlag (Gesamtjahr) 1901 – 2017, Jahresmittelwerte. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Im Sommerhalbjahr ist die Abnahme der Spitzenwerte seit 1924 stetig,

Bild 18 E1 Marktleuthen Tagesniederschlag Sommerhalbjahr 1901 – 2017. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Im Winterhalbjahr nehmen sie seit 1960 stetig ab (Bild 19) und der (die Bedrohung bestimmende) Absolutpegel ist dabei immer niedriger als im Sommerhalbjahr.

Bild 19.1 E1 Marktleuthen Tagesniederschlag Winterhalbjahr 1901 – 2017. Quelle: DWD. Grafik vom Autor anhand der Daten erstellt

Fazit

Auch die Detailanalysen zeigen, dass die Gefährdung durch Starkniederschläge selbst in den mit + 26,5 … 32,5 % als am stärksten zunehmend ausgewiesenen Zonen in Wirklichkeit seit 1924, spätestens 1960 abnimmt. In keinen Fall lässt sich eine Zunahme durch einen AGW-Klimawandel ableiten.
Dass dies auch für Norddeutschland gilt, zeigen die Verläufe in den Bildern 26 und 27 von Marburg im Teil 2, sowie alle bisherigen Analysen:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?
[3] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels
[8] EIKE 31.01.2018: Endlosschleife Klimaangst
[9] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
Für den Autor bedeutet dies:
Die Wissenschaftler des DWD (waren maßgeblich an der Untersuchung beteiligt) und die anderen Beteiligten, haben durch ihre (aus Bequemlichkeit?) zu schematischen Analyse eine falsche – mindestens tiefergehend zu diskutierende – Aussage abgeleitet.
Klar, dass diese „Belege“ nun überall zitiert werden und seitdem unsere (nicht mehr im Amt befindliche), bayerische Umweltministerin in ihrer völligen Unkenntnis zu Klimathemen [6] verschreckt in einen Alptraum fiel, den Klimawandel „mit Händen greifen“ zu können.

Händen greifen zu können“.
Es ist auch bei diesem Thema genau so wie beim (übernatürlichen) Meerespegelanstieg: Beides findet ausschließlich in Computersimulationen statt.

Nachtrag

Dass Extrem-Niederschlagsereignisse eher ein chaotisches, als ein trendiges, geschweige, vorhersagbares Verhalten zeigen, haben die bisherigen Verlaufsbilder wohl hinreichend belegt. Wenn es so ist, muss es sich auch in Hochwassern äußern. Und das machen solche auch ganz demonstrativ.
Das folgende Bild zeigt rekonstruierte Fließmengen der Elbe in der Nähe von Dresden:
Vor der „Industrialisierung“ mit dem Beginn des „Klimawandels“ war ein Hoch, dann ganz kurz nach dem Beginn des „Klimawandels“ im 1880. Dann gingen die Spitzenwerte kontinuierlich über 100 Jahre zurück. und urplötzlich im Jahr 2002 gab es ohne jegliche Vorwarnung eine erneute Spitze mit den vor-industriellen Werten.
Anmerkung: Bei jüngeren Werten ist zu beachten, dass eine Pegelerhöhung durch (bei Überlaufgefährdung) zusätzlich abgelassenen Rückhaltebecken und Stauseen in Oberläufen vorhanden sein kann. Es kann also sein, dass der („bereinigte“) Pegel vom Jahr 2002 unter den früheren lag.

Bild 19.2 Elbe, Fließmengen seit 1850. Wert der Flut 2002 von 4.700 m3 nach vom Autor nach den Angaben in der Studie ergänzt. Quelle: MUDELSEE ET AL.: EXTREME FLOODS IN CENTRAL EUROPE

Das ist nicht nur in und um Deutschland herum so, sondern zum Beispiel auch in Schweden:
[14] … The results show that the changes in annual maximum daily flows in Sweden oscillate between dry and wet periods but exhibit no significant trend over the past 100 years.

Bei einem solchen chaotischen Verhalten lässt sich ganz einfach kein Trend bestimmen. Und schon gar nicht eine Verschlimmerung durch einen Klimawandel.

Wie unser Staatsfunk BR in Bayern, lässt sich aber auch die Süddeutsche Zeitung nicht „lumpen“. Sie ist (wie praktisch alle deutschen Medien) der grundlegenden Überzeugung, dass ständiges Wiederholen Unwahrheiten wahr werden lässt:
SZ, Ausgabe Nr. 86 vom 14./15. April 2018: BUCH ZWEI (eine mehrseitige Darstellung eines Aktivisten): … Die wärmer werdende Erde lässt die Ozeane anschwellen – … die steigenden Meeresspiegel bedrohen ausgerechnet … Noch wächst diese Bedrohung im Zentimeterbereich, aber was, wenn die Eispanzer in Grönland und in der Antarktis abtauen?
Nachweislich aus dem Gleichgewicht geraten ist bereits das Wetter. Dürren und extreme Niederschläge nehmen zu. Die Zahl der in Deutschland von Flutwasser bedrohten Menschen wird sich in den kommenden Jahrzehnten Vervielfachen ..
.
Es ist, als möchten diese Medien zeigen, wie überflüssig der Posten einer Bundespräsidenten-Nachsprechpuppe ist.

Damit endet der erste Teil. Im zweiten Teil werden ergänzend historische Daten betrachtet. Diese zeigen, dass die Bedrohung durch Starkregenereignisse bereits seit vielen Jahrhunderten abnimmt.

Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] FOCUS ONLINE 07.03.2018: Hochwasser, Trockenheit und WirbelstürmeWetterextreme in der Bundesrepublik: DWD empfiehlt Deutschen sich schon jetzt zu wappnen

Beispiel für Wetterextreme nannte der DWD-Fachmann die länger andauernde Trockenheit im vergangenen Frühjahr und das „anhaltend trübe Wetter“ von September 2017 bis Januar 2018.

[3] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[4] Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft

[5] Murphy, C et al. (2017): A 305-year continuous monthly rainfall series for the Island of Ireland (1711-2016)

[6] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[7] Murphy at al. 2018: Island of Ireland monthly rainfall series 1711-2016 (IoI_1711)

[8] EIKE 31.01.2018: Endlosschleife Klimaangst

[9] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[10] DWD Schrift, Paul Becker et al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[11] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[12] Nova Acta Leopoldina NF 108, Nr. 373, 125-149 (2009): Holozäner Klima- und Landschaftswandel in der Namib?

[13] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

glaubt Deutschlandradio Kultur

[14] Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)




Keine Klima­leugner, weil unbe­stechlich: Die Früh­blüher in Nord­deutschland lassen sich neuer­dings etwas mehr Zeit

Natürlich könnte der Forsythie- Strauch inmitten Hamburgs eine Ausnahme sein, deshalb stellen wir einen anderen Beobachtungsort vor, Herr Georg v. Petersdorff-Campen hat Aufzeichnungen seit über 30 Jahren von seiner Forsythie in Seesen/Kirchdorff. Seesen ist eine selbständige Gemeinde im Landkreis Goslar am nordwestlichen Harzrand zwischen Göttingen und Hannover im Südosten von Niedersachsen.

Im Vergleich zur großen Wärmeinsel Hamburg blüht die Forsythie in Seesen natürlich etwas später, was auch nicht anders zu erwarten war. Wir betrachten zunächst die Termine der Erstblüte in den letzten 30 Jahren. (1989 bis 2018 sind 30 Jahre) Auf der senkrechten y-Achse sind die Blühtermine ab Neujahr eingetragen.

Grafik 1: Ähnlich wie der Frosythienstrauch in Hamburg verspätet sich seit 30 Jahren auch der Forsythienstrauch in Seesen. Steigende Trendlinie bedeutet Verspätung. In der Grafik sind als Blühtermin die Tage ab Neujahr angegeben.

Der Grund der Verspätung ist derselbe wie in Hamburg. Neben vielen Faktoren ist vor allem die Temperatur der beiden Monate vor der Blüte, hier Februar und März entscheidend. Man bezeichnet den Schnitt der beiden Monate als Vorfrühling. Und dieser Gesamtschnitt des Vorfrühlings ist laut Temperaturerhebungen des DWD sinkend. Die Trendlinie zeigt nach unten. Seit 30 Jahren wird es kälter in Deutschland und damit sind auch die Märzblüher immer später dran.

Grafik 2: Vorfrühling ist der Schnitt der Monate Februar/März. Die Trendlinie zeigt nach unten. Seit 30 Jahren wird der Vorfrühling kälter in Deutschland und damit sind auch die Märzblüher immer später dran.

Erg: Ebenso wie in Hamburg, leugnet die Forsythie in Seesen/Kirchdorf den Klimawandel. Die Märzblüher kommen alle später und nicht früher. Die Behauptung der Medien, dass in Deutschland der Frühling immer früher käme ist eine glatte Lüge der Medien. Allerdings plappern die Redakteure nur das nach, was ihnen im großen Stile und mit System vorgelogen wird.

Die Forsythie ist ein Klimawandelleugner. Wir fragen uns: Wird Sie vielleicht bald vor Gericht gestellt mit dem Ergebnis, dass sie aus allen Vorgärten Deutschlands verschwinden muss?

Wie würde nun ein Artikel über die Forsythie und andere Frühblüher in den Medien aussehen?

In aller Regel wird nur behauptet, dass es aufgrund der steigenden CO2-Konzentration immer wärmer würde. Dann wird den Lesern oder Zuschauern eine Grafik der global steigenden CO2-Konzentration gezeigt. Und im gleichen Atemzug erfolgt dann die Falschaussage, dass deshalb die Winter immer wärmer würden und deshalb käme auch der Frühling früher. Zu diesen beiden Falschaussagen wird natürlich keine Grafik gezeigt. Da die Deutschen und insbesondere auch die Medienvetreter zu einem Volk von Stubenhockern hinter der warmen Heizung degeneriert sind, zweifelt niemand die Falschaussagen an. Es gibt somit keine Klimawandelleugner, sondern nur Klimalügner.

Dass aber der Frühling immer später kommt seit 30 Jahren zeigt auch die Salweidenbeobachtung desselben Phänologen Georg von Petersdorff-Campen in Seesen/Kirchdorf

Grafik 3: Auch die Salweidenblüte verspätet sich, das zeigt die steigende Trendlinie. Der Blühtermin war diesmal der 4.April, das ist am 94.ten Tag im Neuen Jahr 2018. Muss der Palmsonntag in Deutschland bald verlegt werden?

Die Salweide als Pioniergehölz mäßig trockener bis sehr trockener, eher nährstoffarmer Standorte reagiert auch auf den steigenden Nitratgehalt des Regenwassers. Dieser hat in den letzten 30 Jahren zugenommen. Düngemittel sind manchmal ein Faktor für eine Verfrühung, ebenso wie der steigende CO2- Gehalt der Luft. Das Resultat vieler Einflussgrößen ist in der Endbetrachtung trotzdem eine leichte Verspätung der Salweidenblüte in den letzten 30 Jahren.

Ein anderer, im zeitigen Frühjahr recht auffälliger Strauch ist die Kornelkirsche (Titelfoto), ein beliebtes Zier- und altes Obstgehölz, welche als wärmeliebender Strauch in der freien Landschaft ab dem südlichen Niedersachsen auch wild vorkommt. Die DWD- Daten für Braunschweig sind momentan leider nur bis 2016 verfügbar; doch in diesen knapp 30 Jahren zeigt sich auch bei der Kornelkirsche eine leichte Verspätung des Blühtermins:

Grafik 4: Leichte (nicht signifikante) Blühverspätung der Kornelkirsche an der DWD- Station 662 (Braunschweig) in den 29 Jahren von 1988 bis 2016.

Der Zusammenhang zwischen Vorfrühlingstemperatur und dem Beginn der Kornelkirschblüte ist deutlich, wenngleich weniger eng als bei der Forsythie:

Grafik 5: Ein kälterer Vorfrühling zieht tendenziell eine längere Dauer bis zum Beginn der Kornelkirschblüte nach sich (negative Korrelation). Man beachte aber, dass außer der Lufttemperatur auch die Sonnenscheindauer, die Bodentemperatur, die Bodenfeuchte und die gestiegene CO2-Konzentration der Atmosphäre einen wesentlichen Einfluss auf den Zeitpunkt des Erblühens haben!

Nur nebenbei bemerkt: Klima wandelt sich immer. Momentan werden der Winter und insbesondere die beiden Monate Februar und März kälter und nicht wärmer. Unzählige Faktoren bestimmen den Temperaturverlauf und die abkühlenden Faktoren waren in den letzten 30 Jahren stärker. Das kann sich auch wieder ändern. Richtig ist, dass der Mensch durch seinen Wohlstand und die zunehmende Bebauung Wärme in die Landschaft reinträgt. Wir sind also mit einem Faktor mitbeteiligt an den Temperaturen, und zwar erwärmend. Die Behauptung, dass Kohlendioxid allein die Temperaturen der Erde bestimmt ist falsch. Bisher konnte noch durch keinen einzigen Versuch die Klimasensitivität von CO2 festgelegt werden.

Merke: Die Klimasensitiviät von Kohlendioxid ist Null oder zumindest nicht nachweisbar klein. Das zeigen alle auf wissenschaftlichem Niveau durchgeführten Versuche.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




… und jährlich ändert sich der Golfstrom – Alarmisten bemühen das “The Day After Tomorrow” Szenario – es wird kalt, weil es wärmer wird

Es ist das gleiche Szenario, das im Katastrophenfilm „The Day After Tomorrow“ in Hollywood Manier dargestellt wurde, wo eine Verlangsamung des Golfstroms Nordamerika in ein gefrorenes Ödland verwandelte. Ein katastrophales Szenario, das Jahrzehnte entfernt sein könnte, sagen einige Wissenschaftler.

„Wir wissen, dass es irgendwo einen Wendepunkt gibt, an dem das derzeitige System zusammenbrechen könnte„, warnte der Potsdamer Klimaforscher Prof. Stefan Rahmstorf, einer der Mitautoren der Studie von Leit-Autorin Levke Caesar, ebenfalls PIK. „Wir wissen jedoch nicht, wie entfernt oder nahe wir an diesem Wendepunkt sind, das ist Neuland.“

Diese Studie war eine von zweien, die alarmierende Schlagzeilen in den Medien hervorriefen, aber Experten sind skeptisch wegen der wenigen beobachtbaren Beweise. (Andere) Wissenschaftler machen seit etwas mehr als einem Jahrzehnt nur direkte Messungen des Golfstroms.

„Rekonstruktionen über programmierte Klimamodells sind nicht dasselbe wie beobachtete Daten oder Beweise“, sagte der Atmosphärenwissenschaftler des Libertären Cato Instituts, Dr. Ryan Maue, dem Daily Caller. „Wir sollten die bombastischen Darstellungen im „The Day After Tomorrow“ nur sehr misstrauisch betrachten, direkte Messungen sind sehr begrenzt“.

Der Golfstrom, auch Atlantic Meridional Overturning Circulation (AMOC), bringt warmes Wasser aus dem Golf von Mexiko in den Nordatlantik und kaltes Nordwasser strömt wiederum nach Süden.

Polare Eisschmelze und verstärkte Niederschläge bringen immer mehr kaltes, frisches Wasser in den Nordatlantik und verringern den Salzgehalt, sagen einige Wissenschaftler. Salzärmeres Wasser ist leichter und sinkt nicht so schnell nach unten, der Golfstrom wird geschwächt.

[Der letzte Satz lautet im Original: ‘Less saline has a harder time sinking, throwing off the AMOC’]

Klimamodelle zeigen im Allgemeinen eine schwächere AMOC als Folge der Erwärmung, aber die Beobachtungsdaten sind gering. Anomale Abkühlung südlich von Grönland ist ein Beweis für eine geschwächte AMOC, sagen einige Wissenschaftler.

„Die schwache AMOC ist explizit verbunden mit „steigenden atmosphärischen Kohlendioxidkonzentrationen“ und „Temperaturtrends, die seit dem späten neunzehnten Jahrhundert beobachtet wurden“, so Prof. Rahmstorf.

Jedoch die „Labrador Sea Deep Convection“ [Der Labradorstrom ist eine kalte, nach Süden gerichtete Meeresströmung in einem Arm des atlantischen Ozeanes zwischen Grönlandund der Ostküste Nordamerikas.] und die AMOC waren in den vergangenen 150 Jahren ungewöhnlich schwach … verglichen mit den vorangegangenen 1.500 Jahren „, heißt es in einer zweiten Studie, die im gleichen Journal veröffentlicht wurde.

Mit anderen Worten, die AMOC begann zu schwächen, bevor menschliche Aktivitäten eine Rolle spielen konnten.

„Das spezifische Trendmuster, das wir in den Messungen gefunden haben, gleicht genau dem, was Computersimulationen als Folge einer Verlangsamung des Golfstromsystems vorhersagen, und ich sehe keine andere plausible Erklärung dafür„, sagte Rahmstorf, dessen Studie sich auf Proxy-Daten stützte aus Meeressediment und Kalkschalen

Aber noch mal, es gibt nur begrenzte Beobachtungen. Auch andere Wissenschaftler außer Maue stehen der Studie skeptisch gegenüber.

„Rahmstorfs Behauptungen über die Schwächung sind denkbar, aber nicht durch irgendwelche Daten gestützt„, sagte Carl Wunsch vom Massachusetts Institute of Technology gegenüber Associated Press.

Kevin Trenberth vom National Center for Atmospheric Research sagte, dass seine jüngsten Arbeiten ergeben haben, dass regelmäßige Zyklen in der Atmosphäre mehr stören als der Ozean. „Die Studie erklärt nicht die Variabilität von Jahr zu Jahr, während atmosphärische Zyklen dies tun“.

Die Schlüsse, die Sie aus den Ergebnissen ziehen, hängen im wesentlichen davon ab, inwieweit Sie den verwendeten Modellen Glauben schenken und wie gut die gewählten Proxies  die AMOC über die Zeitskalen repräsentieren„, sagte Meric Srokosz , ein Meereskundler des Ozeanografiezentrums, gegenüber der Washington Post.

Erschienen auf The Daily Caller am 11.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/11/day-after-tomorrow-global-warming/

 

* * *

Durch die nachfolgenden Recherchen, sieht man, der Golfstrom kommt alle Jahre wieder ins Gerede. Hier eine kleine Auswahl in aufsteigendem Datum:

Sept. 2005

Erwärmung des Tiefenwassers verlangsamt

… Die erste Auswertung der Rohdaten zeigt ein interessantes Ergebnis: Die seit über sechs Jahren anhaltende Erwärmung der zentralen Labradorsee ist kaum noch zu spüren. Ob dies die ersten Vorboten einer erneuten Abkühlung sind, bleibt jedoch abzuwarten. ..

Jan. 2011

Gefürchtete Atlantikströmung schwächelt

 … Das kalte Wasser des Labradorstroms raubt dem Golfstrom einen Großteil seiner Wärme. Auch in Europa ist es deshalb kühler. …

März 2012

Golfstrom im Visier der Klima-Alarmisten!

So ließ jüngst das MPI Hamburg zu (1) verlauten [12] :

„Doch was die Forscher noch gar nicht so lange wissen: Die Zirkulation schwankt. Sie variiert mit den Jahren und kann mal schwächer, dann wieder stärker ausfallen.“

Okt. 2012

Die Debatte ums Versiegen des Golfstroms – Rahmstorf durch Messdaten widerlegt!

Prof. Rahmstorf erklärt: …. …Nach aktuellem Stand erscheint das Risiko eher größer, als wir es vor zehn oder fünfzehn Jahren gesehen haben.”

April 2014

Neue Golfstrom-Publikation des PIK fällt in der Fachwelt glatt durch

… versucht Stefan Rahmstorf mühsam zu retten, was nicht zu retten ist. Lang und breit erklärt er in diesem Beitrag, warum sowohl er recht hat, als auch die Forscherkollegen, die das glatte Gegenteil, des von ihm postulierten Zusammenbrechens des Golfstromes gemessen haben.

März 2015

Entwarnung: 20-jährige Studie zeigt Golfstrom ist stabil

 …Es heißt, dass der Golfstrom an Stärke verliert aufgrund steigenden Meeresspiegels entlang der Ostküste. Allerdings ist in keiner der Studien auf irgendwelche direkte Messungen der Strömung Bezug genommen worden, um über einen längeren Zeitraum die Behauptungen zu belegen.

März 2015

Michael Mann und Stefan Rahmstorf behaupten: Golfstrom schwächt sich ab wegen Eisschmelze in Grönland – außer dass die Realität etwas ganz anderes sagt

… Das ADCP misst Strömungen mit sehr hoher Genauigkeit. Folglich erhalten wir durch wiederholte Messungen, die wir Jahr für Jahr durchführen, ein aussagekräftiges Tool, mit dem wir die Stärke der Strömung überwachen können. Es gibt Variationen der Strömungsgeschwindigkeit mit der Zeit, die natürlichen Ursprungs sind – und ja doch, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die zeigen, dass sich der Golfstrom verlangsamt“.

Dez. 2017

Aussterben von Spezies und Abbruch des Golfstromes

… wir nehmen uns die Behauptung vor, dass der vom Menschen verursachte Klimawandel einen starken Zufluss von Süßwasser aus den schmelzenden Gletschern in Grönland in Gang setzen wird. Dies soll zum Zusammenbruch der thermohalinen Zirkulation und/oder des Golfstromes im Nordatlantik führen. Das wiederum soll eine starke Abkühlung mit sich bringen ähnlich der wie vor 818 bis 8340 Jahren, als ein Eisdamm in Kanada brach und gewaltige Mengen Süßwasser in den Atlantik strömten.

März 2018

Studie zeigt, dass die globale Erwärmung den Jetstream nicht verändern wird

… Nein, CO2 beeinflusst den Jetstream nicht. Lupo und Jensen untersuchten die Ergebnisse von Klimamodellen und fanden bis zu 35 Jetstream-Strömungsänderungen pro Jahr, ähnlich dem heutigen Klima.




Fossile Treibstoffe unter Feuer

Ölunternehmen stehen jetzt vor einer Fülle von Gerichtsverfahren – diese reichen von Klagen seitens Kindern (finanziert radikalen, anti-fossilen Umweltgruppen) bis zur kommunalen Ebene. Die Vorwürfe laufen darauf hinaus, dass Öl-, Gas- und Kohleunternehmen seit Jahrzehnten wussten, dass sie den Klimawandel verursachen (und vermutlich den Kindern ihre Zukunft rauben), aber konspiriert haben, um die Beweise zu verschleiern oder zu leugnen.

Alsup forderte von Klägern und Beklagten Briefings zum Thema Klimawandel an und konzentrierte sich auf acht Fragen, welche er beiden Seiten vorlegte. Er räumte beiden Teams 60 Minuten ein, eine historische Studie des Klimawandels zu präsentieren, und eine weitere Stunde, um die beste verfügbare Wissenschaft zu Klimawandel zu diskutieren, zu schmelzendem Eis, Meeresspiegelanstieg und Überflutung küstennaher Gebiete.

Von den beklagten Ölunternehmen nahm nur Chevron an der Anhörung teil. Sehr zum Missfallen der in dem Prozess beteiligten Städte und Umweltaktivisten bekräftigte Chevron die Ergebnisse des IPCC. Den Protokollen zufolge rasten die Kläger vor Wut und verdammten die IPCC-Berichte, welche sie doch zuvor als den goldenen Standard der Klimaforschung gepriesen hatten.

Chevron hat die gesamten Forschungen des IPCC durchgearbeitet, nicht nur die von Aktivisten, Autoren und Politikern zusammengestellten Schlagworte in der „Summary for Policymakers“. Darin wurden die Zweifel heruntergespielt und die Möglichkeit einer Klimakatastrophe auf den Schild gehoben. Klimarealisten haben schon lange darauf hingewiesen, dass die IPCC-Berichte grundlegende Forschung enthielten. Und obwohl die Berichte nicht umfassend sind, sind sie doch weitaus weniger apokalyptisch als die so oft zitierten Summaries.

Joe Bast, ehemaliger Präsident des Heartland Institutes hebt viele positive Aspekte der Teilnahme von Chevron an der Anhörung hervor.

Wir haben schon lange gesagt, dass die vollständigen IPCC-Berichte viele Hinweise auf Unsicherheiten und Zweifel enthalten (siehe z. B. Seite 39 im Kapitel Why Scientists Disagree About Global Warming). Die „Summaries for Policymakers“ dagegen sind politische Dokumente, in welchen sämtliche Zweifel ausgeschlossen und die von Umweltaktivisten und Politikern editiert worden sind, um politischen Zwecken zu dienen. Chevron nahm die tatsächlichen Studien genau unter die Lupe und dokumentierte die Passagen bzgl. Unsicherheiten während der Zeit, in der sie der Anklage zufolge einen wissenschaftlichen Konsens verschleiert hätten. Das ist ein gutes und sicheres Argument.

Chevron wies außerdem nachdrücklich darauf hin, dass die Kläger und die daran Beteiligten (Städte samt deren Industrien und Bewohnern) – aber nicht die Ölunternehmen – mit den fossilen Treibstoffen die meisten Treibhausgase in die Atmosphäre freisetzen. Bast weiter: „Chevron forderte das Gericht auf zu unterscheiden zwischen den Aktivitäten der Beklagten – die Extraktion fossiler Treibstoffe aus dem Boden – und der Aktivität, welche Klimawandel verursachen kann – die Verbrennung fossiler Treibstoffe“.

Chevron wies auch nach, dass die IPCC-Berichte ausdrücklich auf den fehlenden Konsens bzgl. Anstieg des Meeresspiegels hinwiesen, welcher vermeintlich vom anthropogen verursachten Klimawandel ausgelöst werden soll – ebenso wie bzgl. wie stark und wann Kalifornien davon betroffen sein soll. Dies ist konsistent mit den Veröffentlichungen des Heartlands Institutes und jenen des NIPCC. Außerdem betonte Chevron „die eigenen Worte der Kläger, enthalten in städtischen Angeboten, mit denen eingeräumt wurde, dass der künftige Anstieg des Meeresspiegels nicht vorhergesagt werden kann“.

Kommentatoren wiesen auf die Ironie hin, dass Chevron die IPCC-Berichte hervorhebt, während die Klima-Aktivisten das, was sie zuvor als beste verfügbare Klimaforschung priesen, jetzt leugnen. Prof. Roger Pielke Jr. von der University of Colorado stellte fest: „Dieser Tweet zeigt, wie sehr sich die Klimadebatte verändert hat. Ein Ölunternehmen hebt den IPCC-Konsens hervor, während deren Opponenten, also Umweltaktivisten (einschließlich einiger Klimawissenschaftler) den IPCC-Konsens leugnen. Bizarre Welt!“

Zwei Briefings von „Freunden des Gerichtshofes“, geschrieben von verschiedenen Klimaforschungsgruppen, stützten und erweiterten die Präsentation von Chevron für Alsup. Diese Briefings stellten die Myriaden Unsicherheiten dar, ebenso wie die Tatsache, wie sehr Klimamodelle unzuverlässige Temperaturprognosen erzeugten und Klimadaten falsch anwenden. In einem dieser Briefings heißt es:

Die Gutachten werden zeigen, dass es eben keinen ,Konsens‘ unter den Wissenschaftlern gibt, dem zufolge die jüngste globale Erwärmung hauptsächlich anthropogenen Ursprungs war, geschweige denn dass eine nicht abgeschwächte anthropogene Erwärmung gefährlich oder katastrophal war oder sein wird. Unter dem Terminus ,Konsens‘ versteht das IPCC nichts weiter als das der größte Teil der beobachteten globalen Erwärmung seit 1950 den Menschen geschuldet ist. Darin nicht enthalten ist die Schlussfolgerung, dass die globale Erwärmung insgesamt schädlich war oder sein wird“.

Diese beiden Briefings stellen eine solide Grundlage für Skeptizismus hinsichtlich der vermeintlichen Gefahren des Klimawandels dar.

Bast argumentiert, dass die Befürworter fossiler Treibstoffe in die Offensive gehen sollten und die vielfache Forschung bekannt machen, welche das Narrativ des gefährlichen anthropogenen Klimawandels unterminieren:

Chevron mag nur so viele Argumente hervorgebracht haben, wie das Unternehmen glaubt nötig waren, um diesen Prozess zu gewinnen, und ich denke, dass das genau das ist, was gute Anwälte tun. Das Unternehmen hat gute Argumente vorgebracht, und vielleicht können sie sogar einen linken Richter davon überzeugen, ein belangloses Verfahren einzustellen. Aber Chevron stellte vor Gericht viele falsche und irreführende Behauptungen auf – Behauptungen, welche die öffentliche Debatte um den Klimawandel kontaminieren können und die Industrie fossiler Treibstoffe verfolgen. Sie können unsere Energie-Freiheit bedrohen, bis man sich ihnen stellt und sie widerlegt“.

Angesichts der Reaktionen seitens Journalisten und Aktivisten vor Gericht kann Chevron eines seiner Hauptziele erreicht haben: nämlich die Auffassung zu zerstreuen, dass Ölunternehmen konspiriert haben, um die Klimawissenschaft zu unterdrücken.

Alsup verwirft den Gedanken, dass es eine irgendwie geartete Konspiration der Unternehmen fossiler Treibstoffe gibt, um Klima-Informationen zu unterdrücken“, twitterte Amy Westervelt von Climate Liability News.

Der Richter rügte die Anwälte der kalifornischen Städte und sagte, dass diese das Gericht in die Irre geführt hätten – und dass das von den Klägern vorgebrachte Dokument, welches die ,Konspiration zeigt‘, tatsächlich nichts dergleichen zeigt“, twitterte der Dokumentarfilmer Phelim Mcaleer.

Es gibt keine Konspiration unter den Unternehmen fossiler Treibstoffe, um Informationen bzgl. Klimawissenschaft zu unterdrücken“, twitterte Amy Johl, eine sich selbst als „Klima-Organisatorin“ bezeichnende Dame.

Es ist zu hoffen, dass dies das Ende dieser Gerichts-Farce ist – nicht nur in diesem Fall, sondern auch in ähnlich gelagerten Fällen im ganzen Land. Falls das so sein sollte, können Öl- und Gasunternehmen aufhören, kostbare Zeit zu verschwenden, um belanglosen Behauptungen vor Gericht entgegenzutreten, und sich statt dessen auf das konzentrieren können, was sie am Besten können: zuverlässige und preiswerte Energie zur Verfügung zu stellen, welche die Menschen brauchen und wünschen.

H. Sterling Burnett

SOURCES: The Heartland Institute, The Daily Caller, CO2 Coalition, Watts Up With That,  McClatchy, Energy In Depth

Übersetzt von Chris Frey EIKE

Anmerkung: Auch hier wird anstelle eines festen Links zu Prüfzwecken das Original als DOC beigefügt:

fossil




Klima-Skepsis am Ägeri-See

Alex Reichmuth*

Der Ägerisee im Kanton Zug ist eingebettet in eine liebliche Landschaft. Hier liegt der Morgarten, wo die Eidgenossen vor vielen Jahrhunderten er­folgreich Widerstand gegen die Habsburger leisteten. Um eine andere Art von Widerstand geht es bei einer For­schungseinrichtung, die seit kurzer Zeit ihren Sitz am Ägerisee hat:

Das Institut für Hydrographie, Geoökologie und Klimawissenschaften will zeigen, dass COnicht zwingend der Haupttreiber hinter der Erderwärmung ist, und wi­dersetzt sich damit einem angeblich weiten Konsens unter Forschern.

Hans-Joachim Dammschneider em­pfängt die Basler Zeitung in seinem Büro in Oberägeri, wo das Institut seine Adresse hat. Der Naturwissenschaftler und gebürtige Deutsche leitet die Institution, die Anfang 2017 gegründet wur­de. «Im Gegensatz zu vielen anderen, die sich zum Thema Erderwärmung zu Wort melden, bin ich tatsächlich Klima­tologe», sagt Dammschneider.

Wer beim Institut mitmacht, tut das – zumindest bisher – ehrenamtlich. Denn über wesentliche finanzielle Mittel verfügt dieses noch nicht. Dank mo­derner Kommunikation ist es für die Beteiligten auch nicht nötig, sich physisch am Ägerisee aufzuhalten.

Das Institut ist eine Art Netzwerk gleichge­sinnter Forscher.

«Ruhe, Vernunft und Anstand»

Entscheidend für die Gründung war eine Begegnung von Hans-Joachim Dammschneider mit dem deutschen Geologen Sebastian Lüning vor zwei Jahren. Lüning war zusammen mit Fritz Vahrenholt Autor des Buches «Die kalte Sonne» und betreibt eine klimaskep­tische Internetseite mit dem gleichen Titel. «Lüning und ich kamen zum Schluss, dass es eigene Forschungsaktivitäten braucht, um aufzuzeigen, wie sehr sich die tonangebenden Klimawissenschaftler in Behauptungen verrannt haben», so Dammschneider. Denn nur, wer selber eine wissenschaftliche Leistung bringe, habe die Chance, ernst genommen zu werden.

Mit «Ruhe, Vernunft und Verstand» wolle sich das Institut in die Diskussion um die Erderwärmung einbringen. Dammschneider selber bezeichnet sich als «Klimarealisten», der es absurd findet, CO2als Schadstoff zu bezeichnen und der Substanz die Hauptschuld am Klimawandel zu geben.

Nachdem Dammschneider in Hamburg Geografie (mit Schwerpunkt Kli­maforschung), Ozeanografie und Geologie studiert hatte, spezialisierte er sich während vieler Jahr auf Hydrologie. Im Anschluss an seine Doktorarbeit auf diesem Gebiet arbeitete er lange als selbstständiger Gutachter und half unter anderem mit, die Versandungs- und Verschlickungsprobleme an der Unterelbe zu lösen.

Ständiger Wechsel

Vor 15 Jahren zog er zusammen mit seiner Frau in die Schweiz, wo die Hy­drologie eine Zeit lang nicht mehr im Mittelpunkt seiner beruflichen Tätigkeit stand. Darum freut er sich, jetzt für das Institut wieder verstärkt wissenschaftlich tätig zu sein.

Für das Institut hat er bereits mehrere wissenschaftliche Arbeiten in der hauseigenen Schriftenreihe publiziert. Dammschneiders Spezialgebiet sind periodische Temperaturveränderungen der Meere. Solche Ozeanzyklen mit einer Dauer von rund sechzig Jahren würden auch die Verhältnisse in der Atmosphäre prägen, leitet er aus seinen Resultaten ab. «Die Lufttemperaturen korrespondieren tendenziell mit den Oszillations-Trends in den Meeren und unterliegen einem vergleichbaren Muster.» Wichtig ist ihm aufzuzeigen, dass ständige Wechsel beim Klima normal sind und nicht erst existieren, seit der Mensch fossile Brennstoffe nutzt.

Diesen Schluss legen auch andere Studien nahe, die im Namen des Instituts in wissenschaftlich begutachteten Zeitschriften publiziert worden sind: Unter der Leitung von Sebastian Lüning untersuchte ein Forscherteam die Temperatur- und Niederschlagtrends in Afrika während des Hochmittelalters. Während den Jahren 1000 bis 1200 war es auf der Nordhalbkugel ähnlich warm wie heute. Die Arbeiten von Lüning und seinem Team legen nahe, dass in dieser Zeit auch in Afrika sehr günstige Klimaverhältnisse herrschten. Auch das deutet darauf hin, dass die heutige Warmzeit nicht einzigartig ist.

Aufmerksamkeit und Geld

Es ist dennoch kaum zu erwarten, dass die arrivierte Wissenschaft wegen dieser Publikationen auf den klimaskeptischen oder eben «klimarealis­tischen» Kurs des neuen Instituts einschwenkt. Hans-Joachim Dammschnei­der ist sich bewusst, dass ein langer, beschwerlicher Weg bevorsteht. «Auch in der Wissenschaft existiert der Her­dentrieb», gibt er zu Bedenken. Gerade junge Klimaforscher könnten es sich in der Regel nicht leisten, angebliche Wahrheiten in Frage zu stellen, wenn sie nicht ihre Karriere gefährden wollten. Von daher setze das Institut stark auf den Support von freien Wissenschaftlern und emeritierten Professoren. «Diese können sich erlauben, offen zu sprechen», so Dammschneider.

Noch ringt das neue Institut um Aufmerksamkeit. Um es grösser und be­kannter zu machen, braucht es vor allem Geld. Die Suche nach Sponsoren aus der Wirtschaft sei vielversprechend, versichert Dammschneider. Er erwartet, dass das Institut irgendwann eigene Mitarbeiter anstellen kann. Überstür­zen wolle man aber nichts: «Wir gehen es Schritt für Schritt an.»

Sicher ist sich der Naturwissenschaftler, dass der Alarmismus um den angeblich menschengesteuerten Klimawandel nicht ewig anhält:

«Früher oder später wird man die bisherigen Positionen relativieren müssen.»

Bis es so weit ist, wollen er und seine Mitstreiter sich weiter in die Wissenschaft vertiefen – «nüchtern und unideologisch», wie Dammschneider versichert.

(Basler Zeitung)

=====================================================

)* Dieser Artikel erschien zuerst in der BASLER ZEITUNG (ol.) am 13.04.2018

https://bazonline.ch/wissen/Klimaskepsis-am-Aegerisee/story/14557957

EIKE dankt der Redaktion der BasZ sowie dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

======================================================




Pruitts Unterstützer warnen Präsident Trump: Ohne ihn kommt die Agenda zum Erliegen

Demokraten und Umweltaktivisten fordern zunehmend Pruitts Entfernung, wegen zunehmender ethischer Bedenken, [zur Zeit] vor allem wegen seines Mietverhältnisses eines Zimmers in der kurzen Zeit in Washington, aber auch der Gehaltserhöhung von Mitarbeitern, an der Mitsprache des Weißen Hauses vorbei. [Bericht übersetzt auf Eike].

Präsident Trump und EPA Administrator Pruitt haben eine enge Arbeitsbeziehung. Trump rief Pruitt an Ostermontag an, um ihm zu sagen, „wir stützen Dich“, aber kurz danach kam das Weiße Haus mit der Indiskretion, dass Trump „nicht“ einverstanden wäre, dass Pruitt die o.g. kurzfristige Miete mit der Frau eines DC-Lobbyisten abgeschlossen hatte.

„Wir überprüfen die Situation. Wenn wir die Gelegenheit hatten, einen tieferen Einblick in das Thema zu bekommen, werden wir Sie über die Folgen davon informieren „, sagte die Pressesprecherin Sarah Huckabee Sanders den Reportern.

Axios berichtet, dass Trump auf die öffentliche Meinung dazu achtet.

Pruitts Verbündete stemmen sich dagegen:

… Lass die Pruitt nicht links liegen. Hier geht es wirklich um Ideologie und Leute auf der Linken, die seine aggressiven Handlungen bei der Regulierung von Umweltvorschriften nicht mögen.

Die Entlassung von Pruitt würde endlose Probleme bringen. … die Linke – und sie setzen die Mainstream-Presse für dieses Thema ein – wird nicht zufrieden sein, wenn Pruitt geht. Sie werden sich einfach das nächste Kabinettsmitglied vornehmen.

„Das würde wirklich passieren, wenn Pruitt gebeten würde zu gehen“, sagte Tom Pyle, Präsident der American Energy Alliance, gegenüber dem Daily Caller. Pyle leitete 2016 das Transformationsteam von Trump für die Energieabteilung.

„Es würde Monate dauern, bis der Senat jemanden bestätigen würde und wen immer sie bestätigen würden, es würde eher Christine Todd Whitman als Pruitt sein“, sagte Pyle und bezog sich dabei auf den ehemaligen New Jersey Gouverneur und EPA Administrator unter Präsident George W. Bush. „Es wäre so, als würde man mitten in dem Spiel seinen Star „wide receiver“ [ im am. Football , ~vergleichbar der Rechts- und Linksaußen Stürmer]. Es würde den Prozess verlangsamen und es der Verwaltung erschweren, ihre Ziele zu erreichen„.

Im ersten Berichtsjahr der EPA unter Präsident Trump und Administrator Pruitt, wurde fast eine Milliarde an Regulierungskosten aufgehoben.

Auch konservative Experten äußern sich zu Pruitts Verteidigung, und wiesen darauf hin, dass der Administrator die Vorschriften erfolgreich zurückdrehte und die Wissenschaftspolitik der EPA reformierte, was ihn wegen letzterem zu einem Hauptziel der Demokraten machte.

„Scott Pruitt und sein Team leisten hervorragende Arbeit bei der Umsetzung der ambitionierten Agenda von Präsident Trump, die darauf abzielt, robustes Wachstum für Rohstoff- und energieintensive Industrien wiederherzustellen, die in den letzten zehn Jahren stagnierten„, sagte Myron Ebell, Direktor der Politik für Energie und globale Erwärmung im Competitive Enterprise Institute.

Sollte Pruitt entlassen werden, gibt es keinen von Trump ernannten Nachfolger. Andrew Wheeler, der Kandidat für Pruitts Nummer zwei, wartet noch immer auf die Billigung durch den Senat, und der bei Wheeler agierende Assistent wird ebenfalls bald in Rente gehen.

„Sie würden einen Hausmeister bekommen, der nur wenig Mut hätte, die Klimamacht des vorherigen Präsidenten aufzuheben“, sagte Pyle.

Ebell sagte, Pruitts Abgang würde „definitiv den Umgestaltung bremsen“, bei den Klima- und Energieregulierungen der Obama-Ära. „Deshalb glaube ich nicht, dass Scott Pruitt woanders hin befördert wird „, sagte Ebell gegenüber dem Daily Caller. Ebell leitete in 2016 das EPA-Übergangsteam von Trump.

Die Mainstream Medien berichten jedoch, dass negativere Schlagzeilen Trumps Meinung über Pruitt ändern könnten. Pruitts Gegner im Weißen Haus und die Bürokratie bemühen sich, dass mehr negative Geschichten gefunden werden.

Die Kampagne „Entlasst Pruitt“ der Aktivisten, wohlwollend begleitet durch Demokraten, beginnen gerade erst. Sie werden weitere Unterlagen einreichen und [ehemalige] EPA-Mitarbeiter einbinden, um negative Nachrichten über den ehemaligen Generalstaatsanwalt von Oklahoma zu verbreiten.

„Die Umweltbewegung setzt sich insgesamt für die Entfernung von Scott Pruitt ein“, sagte Lukas Ross, ein Aktivist bei Friends of the Earth, gegenüber Bloomberg. „Ich denke, Sie werden in den nächsten Tagen einen eskalierenden Druck sehen, besonders auf der Seite des Senats, um dessen Mitglieder dazu zu bewegen, öffentlich zu erklären, dass Pruitt gefeuert werden sollte.“

Bloomberg berichtet, dass die Umweltschützer Pruitts Immobilientransaktionen, Aufzeichnungen aus seiner Zeit als Generalstaatsanwalt von Oklahoma und Dokumentationen seiner Reisen, nach irgendwelchen verlockenden Details durchfilzen.

„Was offensichtlich stattfindet, ist eine Verleumdungskampagne der linken und teilweise der Mainstream-Medien“ erklärt Pyle.

Erschienen auf The Daily Caller am 05.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/05/pruitt-allies-warn-trump-firing-him/




Zirkel­schluss: das Scheitern des Rück­kopplungs-Schwindels des IPCC

Meine Antwort auf Roy Spencers Kommentar, geschrieben auf seinem Blog drroyspencer.com, wurde inzwischen 1400 mal angeklickt, und die drei vorherigen Artikel wurden jeweils über 1000 mal, über 350 mal und über 750 mal angeklickt. Anderswo hat ein notorisch jähzorniger skeptischer Blogger auf die Frage, ob er zu unserem Ergebnis einen Kommentar schreiben will, geantwortet, er lasse sich nicht dazu herab, etwas so Einfaches zu diskutieren. Einfach ist es. Wie kommt man bloß darauf, dass es keine Klima-Rückkopplungs-Prozesse auf die große Emissionstemperatur gibt, jedenfalls nicht im gleichen Ausmaß, wie sie auf die geringe Erhöhung jener Temperatur reagieren, verursacht durch das Hinzufügen nicht kondensierender Treibhausgase in die Atmosphäre? Das ist ein einfacher Punkt. Aber einfach heißt nicht notwendigerweise falsch.

In diesem Beitrag wird die Mathematik hergeleitet, was weder einfach noch intuitiv, wenngleich auch nicht besonders komplex ist. Wie in Beiträgen zuvor möchte ich einige Fragen aus Kommentaren zu jenen Beiträgen beantworten. Wie zuvor akzeptieren wir ad interim, ad argumentum oder ad experimentum alle Ergebnisse der offiziellen Klimatologie – es sei denn, wir können nachweisen, dass diese Ergebnisse falsch sind.

Führen wir doch einfach ein simples Gedankenexperiment durch. Dabei kehren wir das Modell von Lacis et al. (2010) um. Lacis hatte herausgefunden, dass das Klima, nachdem man alle nicht kondensierenden Treibhausgase aus der Atmosphäre entfernt hatte, ein neues Gleichgewicht erreicht hätte. Dann wäre die Erde ein Schneeball oder ein Wasserplanet mit einer Albedo von 0,418, was eine Emissionstemperatur von 243,3 K impliziert. Kraft dieses Experimentes sollten wir folglich annehmen, dass es im Jahre 1800 keine Treibhausgase in der Atmosphäre gab. Für all jene, die mit wissenschaftlicher Logik nicht vertraut sind: Damit ist nicht gesagt, dass es im Jahre 1800 wirklich keine Treibhausgase gab.

Lacis zufolge soll die globale mittlere Temperatur 20 Jahre nach Entfernung aller nicht kondensierenden Treibhausgase aus der Atmosphäre auf 253 K sinken. Während der folgenden 30 Jahre soll die Temperatur um lediglich ein weiteres K zurückgehen auf 252 K oder 8,7 K über der Emissionstemperatur. Folglich erreicht die Temperatur in Lacis‘ Modell bereits nach 50 Jahren ihr neues Gleichgewicht.

Eine Frage, die nur Wenige in den bisherigen Beiträgen beantwortet haben, und keiner davon überzeugend, lautet: Aus welcher Quelle stammen diese zusätzlichen 8,7 K, wenn es doch keine nicht kondensierenden Treibhausgase als Antrieb gab? Unsere Antwort lautet, dass Lacit implizit die Existenz einer Rückkopplungs-Reaktion auf die Emissionstemperatur von 243,3 K eingeräumt hat, wenngleich dieser Wert viel zu klein ist, um realistisch zu sein. Viel zu klein deshalb, weil wie im vorigen Artikel gezeigt, Lacis die Temperaturdifferenz von 45,1 K zwischen der impliziten Emissionstemperatur von 243,3 K bei der spezifizierten Albedo von 0,418 einerseits und der heutigen globalen Mitteltemperatur andererseits von 288,4 K (ISCCP, 2018), wie folgt zuordnet: Rückkopplungs-Reaktion auf die Emissionstemperatur 252 – 243,3 = 8,7 K. Direkt von natürlich vorkommenden, nicht kondensierenden Treibhausgasen angetriebene Erwärmung (288,4 – 252)/4 = 9,1 K, und bei Anwendung der Rückkopplungs-Reaktion von 0,75 nach Lacis aus den nicht kondensierenden Treibhausgasen 27,3 K: insgesamt 45,1 K. Diese asymmetrische Zuordnung der Differenz zwischen Emissionstemperatur und gegenwärtiger Temperatur impliziert, dass die Rückkopplungsreaktion von 8,7 K auf die Emissionstemperatur lediglich 3,6% von 243,3 K ausmacht, während die Rückkopplungs-Reaktion von 27,3 K auf die Treibhaus-Erwärmung 300% der 9,1 K ausmacht. Später wird formell nachgewiesen, dass diese implausible Zuordnung irrig ist.

Es ist nützlich zu unterscheiden zwischen der vorindustriellen Lage im Jahre 1850 (dem ersten Jahr der HadCRUT-Reihe, dem längsten globalen Temperatur-Datensatz) und der industriellen Ära. Wir wollen annehmen, dass die gesamt globale Erwärmung vor 1850 natürlichen Ursprungs war. In jenem Jahr lag die Temperatur um etwa 0,8 K unter dem heutigen Wert von 287,6 K (HadCRUT4) oder um 44,3 K über der Emissionstemperatur. Lacis‘ Aufteilung der 44,3 K wäre also 8,7 K; 8,9 K und 26,7 K.

Nehmen wir einmal an, dass Lacis recht hatte damit, dass die direkt getriebene Erwärmung durch Hinzufügen der natürlich vorkommenden, nicht kondensierenden Treibhausgase 8,9 K betragen hatte. Lassen wir das Experiment ab 1850 umgekehrt laufen, können wir den Rückkopplungs-Anteil berechnen, der implizit in Lacis‘ Modell steckt nach der Korrektur, um eine ordentliche Rückkopplungs-Reaktion auf die Emissionstemperatur zuzulassen. Bevor wir das tun sei an die gegenwärtig vom IPCC verwendete Liste der Rückkopplungen erinnert, die relevant für die Ableitung sowohl der kurzlebigen als auch der Gleichgewichts-Sensitivitäten sind:

Die vom IPCC gewählte Luxus-Rückkopplungs-Summe [high-end feedback sum] impliziert eine Charney-Sensitivität irgendwo zwischen minus unendlich und plus unendlich pro CO2-Verdoppelung. Kein wirklich gewaltiges Ergebnis nach 30 Jahren und der Ausgabe von hunderten Milliarden Steuerzahler-Dollar. Die Rückkopplungssumme des IPCC in der Mitte der Bandbreite impliziert eine mittlere Charney-Sensitivität von nur 2,2 K und nicht die in den früheren IPCC-Berichten genannten 3,0 bis 3,5 K; und auch nicht die 3,3 K der CMIP3 und CMIP5-Modelle. Da ist es keine Überraschung, dass das IPCC im Jahre 2013 zum ersten Mal keine mittlere Schätzung der Charney-Sensitivität genannt hat.

Keine der vom IPCC gelisteten Rückkopplungen ist vom Vorhandensein irgendwelcher nicht kondensierender Treibhausgase abhängig. Daher wären alle diese Rückkopplungs-Prozesse in unserer Welt um das Jahr 1800 ganz ohne derartige Gase präsent. Um eine Rückkopplungs-Reaktion zu induzieren, so irgendein Rückkopplungs-Prozess präsent ist, bedarf es als einzige Notwendigkeit einer Temperatur, d. h. die Emissionstemperatur. Da Rückkopplungs-Prozesse präsent sind, ist eine Rückkopplungs-Reaktion unvermeidlich.

Die Emissionstemperatur hängt von lediglich drei Größen ab: Einstrahlung, Albedo und Emissivität. Man begeht kaum einen Fehler, falls man die Emissionstemperatur wie gewöhnlich als Einheit betrachtet. Damit beträgt die Emissionstemperatur bei der heutigen Einstrahlung von 1364,625 W/m² und einer Lacis-Albedo von 0,418: [1364,625(1 – 0.418) / d / (5,6704 x 10–8)]0.25 = 243.3 K. Dies steht in Übereinstimmung mit der fundamentalen Gleichung des Strahlungstransports, wobei d das Verhältnis ist zwischen dem Gebiet der sphärischen Oberfläche der Erde zu ihrem großen Kreis = 4 ist. Genauso läge die Emissionstemperatur bei der heutigen Albedo von 0,293 bei 255,4 K. Dieser Wert wird allgemein in der Literatur zur Klimasensitivität genannt.

Der Grund, warum die offizielle Klimatologie bis jetzt der Rückkopplungs-Reaktion auf die Emissionstemperatur nicht das angemessene Gewicht verliehen hat (oder besser, überhaupt kein Gewicht) ist, dass man eine entartete Form der Null-Dimensions-Modell-Gleichung verwendet hat, die da lautet ΔTeq = ΔTref / (1 – f ), wo die Gleichgewichts-Sensitivität ΔTeq nach Berücksichtigung von Rückkopplungen gleich ist dem Verhältnis der Referenz-Sensitivität ΔTref zu (1 minus Rückkopplungs-Anteil f). Das Rückkopplungs-Loop-Diagramm (unten) räumt der Emissionstemperatur keinen Raum ein und daher auch nicht irgendeiner Rückkopplungs-Reaktion.

Der Rückkopplungs-Loop in der von der offiziellen Klimatologie verwendeten Null-Dimensions-Modell-Gleichung ΔTeq = ΔTref / (1 – f )

Diese entartete Form der Null-Dimensions-Modell-Gleichung ist angemessen, wenn nicht sogar ideal, um Gleichgewichts-Sensitivitäten abzuleiten unter der Voraussetzung, dass zunächst eine Rückkopplungs-Reaktion auf die Emissionstemperatur zugelassen wird. Dennoch finden es viele Kommentatoren empörend, dass die offizielle Klimatologie eine so einfache Gleichung anwendet, um die Gleichgewichts-Sensitivitäten zu diagnostizieren, welche zu prophezeien von den komplexen Zirkulations-Modellen erwartet wird. Einige wenige haben versucht zu leugnen, dass diese Gleichung angewendet wird. Allerdings haben Hansen (1984), Schlesinger (1985), das IPCC (2007, p. 631 fn.), Roe (2009), Bates (2016) und einige andere Größen diese Gleichung angewendet:

f = 1 –Tref / Teq = 1 – (TE + ΔTB) / TN

= 1 – (255,4 + 8) / 287,6 = 0,08. (4)

Jetzt wollen wir beweisen, dass die Form dieser diagnostischen Gleichung, wie sie von der offiziellen Klimatologie angewendet wird, das offizielle Intervall der Charney-Sensitivitäten ergibt, wenn man die offiziellen Werte eingibt. Das IPCC (2013, Abb. 9.43) erwähnt Vial et al. (2013), der den CO2-Antrieb ΔQ0 diagnostiziert hat, ebenso wie den Planck-Parameter λ0 und die Rückkopplungs-Summe k bei einer abrupten Vervierfachung der CO2-Konzentration in 11 CMIP5-Modellen via des linearen Regressions-Verfahrens in Gregory (2004). Vial gibt die mittlere Schätzung kmid der Rückkopplungs-Summe aus 11 CMIP5-Modellen als 1,57 W/m²K an mit der Implikation fmid = kmidλ0 = 0,49 und der 2σ-Grenzen von f als fmid ± 40%, d. h. 0,49 ± 0,20.

Der implizite CO2-Antrieb ΔQ0, in welchen schnelle Rückkopplungen mit eingehen, betrug 4,5 W/m² im Vergleich zu den 3,5 W/m² in Andrews 2010. Die Referenz-Sensitivität ΔTS, von Vial mit 1,41 K bewertet, lag um 20% über der mittleren Schätzung der CMIP5-Modelle von 1,1 K. Verwendet man diese Werte erweist sich die Version der von der offiziellen Klimatologie herangezogenen Null-Dimension-Modell-Gleichung als gut kalibriert. Sie ergibt eine Charney-Sensitivität ΔT auf 3,3 (2,0; 4,5) K, fast genau inhaltsgleich mit vielen veröffentlichten offiziellen Intervallen der CMIP3 und CMIp5-Modelle (Tabelle 2):

Aus dieser erfolgreichen Kalibrierung folgt, dass obwohl die von der Gleichung vermuteten Rückkopplungen linear, einige aber auch nicht linear sind, sie immer noch die Gleichgewichts-Sensitivitäten korrekt aufteilt zwischen der erzwungenen Erwärmung und der Rückkopplungs-Reaktion. Im Besonderen reproduziert sie das von den CMIP5-Modellen projizierte Intervall der Charney-Sensitivitäten, welche Nicht-Linearitäten berücksichtigen. Die Kalibrierung bestätigt nicht, dass der Modellwert f ≈ 0,7 für den Rückkopplungs-Anteil oder ihr Intervall der Charney-Sensitivitäten korrekt ist. Sie bestätigt jedoch, dass die Gleichung mit den offiziellen Werten von f die offiziellen, von den komplexen CMIP-Modellen veröffentlichten Prognosen der Charney-Sensitivität bestätigt. Und das, obwohl keinerlei Berücksichtigung der großen Rückkopplungs-Reaktion auf die Emissionstemperatur erfolgte.

Die offizielle Klimatologie adjustiert ihre Modelle so lange, bis sie das Klima der Vergangenheit reproduzieren. Folglich wurden die Modelle so frisiert, dass sie der Differenz von 33 K Rechnung tragen zwischen der Emissionstemperatur von 255,4 K und der heutigen Temperatur von 288,4 K. Man hatte hypothetisiert, dass ein Drittel der 33 K der direkt getriebenen Erwärmung geschuldet war seitens natürlich auftretender, nicht kondensierender Treibhausgase, und die anderen zwei Drittel bis drei Viertel waren die Rückkopplungs-Reaktion auf diese direkte Erwärmung. Folglich haben sie hypothetisiert, dass der Rückkopplungs-Anteil zwei Drittel bis drei Viertel der Gleichgewichts-Sensitivität ausmacht: d. h. dass f irgendwo zwischen 0,67 und 0,75 liegt.

Als einen ersten Schritt zur angemessenen Berücksichtigung der Rückkopplungs-Reaktion auf die Emissionstemperatur kann die Version der offiziellen Klimatologie der Null-Dimension-Modell-Gleichung überarbeitet werden, um die Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, welche lediglich Änderungen der Temperatur sind. Man beachte, dass die korrekte Form jedweder Gleichung, welche natürliches Auftreten (oder jedwede Naturgesetzte) beschreibt, absolute Werte sind: Die Anwendung von Deltas ist nur zulässig, falls die Delta-Gleichungen korrekt abgeleitet sind aus der absoluten Gleichung. Demzufolge sollte ΔTeq = ΔTref / (1 – f ) werden zu Teq = Tref / (1 – f ). Das überarbeitete Rückkopplungs-Loop-Diagramm sieht so aus:

Nach Amendierung, um Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, wird die offizielle Version der Null-Dimension-Modell-Gleichung zu Teq = Tref / (1 – f ).

Um f bei bekannter Referenz- und Gleichgewichts-Temperatur zu berechnen, kann diese überarbeitete Gleichung umgeschrieben werden zu f = 1 – Tref / Teq. In dem umgekehrten Lacis-Experiment setzt sich die Referenz-Temperatur Tref vor der Rückkopplung zusammen aus Emissionstemperatur TE und der zusätzlichen Temperatur ΔTE = 8,9 K. Diese ist die direkte Erwärmung bei Hinzufügen der natürlich auftretenden, nicht kondensierenden Treibhausgase in die Luft. Folglich gilt: Tref = TE + ΔTE = 243.3 + 8.9 = 252.2 K. Die Gleichgewichts-Temperatur Teq ist einfach die Temperatur des Jahres 1850, nach 50 Jahren des umgekehrten Lacis-Experimentes. Dann ist f = 1 – Tref / Teq = 1 – 252.2 / 287.6 = 0.123, also nur ein Fünftel bis ein Sechstel des Wertes der offiziellen Klimatologie. Ursache dieser Differenz ist, dass wir anders als die offizielle Klimatologie die Rückkopplungs-Reaktion auf die Emissionstemperatur korrekt berücksichtigen.

Weiter. Wie viel der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K geht zurück auf die Rückkopplungs-Reaktion auf die Emissionstemperatur TE = 243,3 K und wie viel macht die Rückkopplungs-Reaktion auf die direkte Treibhausgas-Erwärmung ΔTE = 8.9 K aus? Man nehme einfach das Produkt von jedem Wert, und f / (1 – f) = 0,14. Folglich: 243,3 x 0,14 = 34,1 K und 8,9 x 0,14 = 1,3 K. Dass dies die korrekte Aufteilung ist, beweisen wir mittels der Standard-Mainstream-Form der Null-Dimension-Modell-Gleichung, die in allen dynamischen Systemen universell ist außer Klima. Die Mainstream-Gleichung separiert anders als die degenerierte Form der Klimawissenschaft explizit das Eingangssignal (bei Klima die Emissionstemperatur von 255,4 K) von jeder Verstärkung ( wie etwa die Erwärmung um 8,9 K durch Hinzufügen der nicht kondensierenden Treibhausgase zur Atmosphäre).

Die Mainstream-Null-Dimension-Modell-Gleichung lautet Teq = Tref μ / (1 – μβ), wobei Tref das Eingangssignal ist (hier: die Emissionstemperatur); μ = 1 + ΔTref / Tref der Verstärkungsfaktor, der jedwede Verstärkung von Tref repräsentiert wie etwa jenen, die verursacht wird durch die Präsenz der natürlich vorhandenen, nicht kondensierenden Treibhausgase; β ist der Rückkopplungs-Anteil; μβ ist der Rückkopplungs-Faktor, äquivalent zu f in der gegenwärtigen Version der offiziellen Klimatologie; und Teq ist die Gleichgewichts-Temperatur bei Re-Equilibration des Klimas, nachdem alle Rückkopplungen kürzer als ein Jahrzehnt wirksam geworden sind.

Der Rückkopplungs-Loop für diese korrigierte Form der Null-Dimension-Modell-Gleichung sieht so aus:

Das Rückkopplungs-Loop-Diagramm der Standard-Null-Dimension-Modell-Gleichung Teq = Tref μ / (1 – μβ)

Ein Vorteil der Anwendung dieser Form der Null-Dimension-Modell-Gleichung der Mainstream-Wissenschaft ist, dass sie explizit und separat das Eingangssignal Tref berücksichtigt und jede Verstärkung desselben via dem gain factor μ im Verstärker. Daher ist es nicht mehr möglich, entweder Tref oder die Rückkopplungs-Reaktion zu ignorieren oder zu gering zu bewerten, wozu es kommen muss, solange der Rückkopplungs-Anteil β ungleich Null ist.

Weiter unten wird nachgewiesen, dass die Aufteilung der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K im Jahre 1850, was wir aus unserem Gedankenexperiment zuvor abgeleitet haben, tatsächlich die korrekte Aufteilung ist. Beginnt man mit der Mainstream-Gleichung, führen wir zur rechten Zeit den direkten oder open-loop gain factor μ = 1 + ΔTref / Tref ein. Der Rückkopplungs-Faktor μβ, also das Produkt aus dem direkten oder open-loop gain factor μ und dem Rückkopplungs-Anteil β, hat genau die Form, welche wir angewendet haben, um unseren Rückkopplungs-Anteil f abzuleiten als 1 – (243,3 + 8,9) / 287,6 = 0,123. Dies bestätigt, dass unsere Aufteilung korrekt war.

Man beachte im Vorübergehen, dass f in der offiziellen Klimatologie sofort der Rückkopplungs-Anteil und der Rückkopplungs-Faktor ist, nimmt doch die offizielle Klimatologie an, dass der direkte oder open-loop gain factor μ = 1 ist. In der Praxis führt diese einzelne Hypothese die offizielle Klimatologie in die Irre, weil die Verstärkung der Emissionstemperatur, getrieben durch die Präsenz der nicht kondensierenden Treibhausgase, nur ein kleiner Anteil jener Temperatur ist.

Für uns war jedoch die Annahme vernünftiger, dass die Temperatur von 287,6 K im Jahre 1850 vor jedem potentiellen Einfluss des Menschen eine Gleichgewichts-Temperatur war. Wir wissen, dass sich die Welt während der 168 Jahre seit 1850 um nur 0,8 K erwärmt hat. Die offizielle Klimatologie ordnet diese gesamte Erwärmung dem Menschen zu, nicht der Natur.

War es sinnvoll von uns, mit der impliziten Emissionstemperatur von Lacis von 243,3 K anzufangen, welche die spezifizierte Albedo 0,418 auf einer Wasser-Erde beim Fehlen nicht kondensierender Treibhausgase reflektiert? Warum fingen wir nicht mit Pierrehumbert (2011) an, welcher sagte, dass eine Schneeball-Erde eine Albedo von 0,6 aufweisen würde, was eine Emissionstemperatur von 221,5 K impliziert? Rechnen wir mal. Der Rückkopplungs-Anteil f = μβ würde dann zu 1 – (221,5 + 8,9) / 287,6 = 0,20.

Folglich wäre der mittlere Rückkopplungs-Anteil einer Schneeball-Erde im Jahre 1850 0,20; derjenige von einer Wasser-Erde in jenem Jahr 0,12 und bei der heutigen Albedo 0,293 mit einer impliziten Emissionstemperatur von 255,4 K. Es ergibt sich 1 – (255,4 + 8,9) / 287,6 = 0,08. Damit begannen wir auch unsere Reihe. Man bemerkt, dass beim Schmelzen der großen Eisschilde die Dominanz der Albedo-Rückkopplung unaufhaltsam geringer wird, während der Rückkopplungs-Anteil mit der Zeit sinkt.

Obwohl die Albedo-Rückkopplung bis jetzt dominiert haben mag, was ist mit der größten aller heutigen Rückkopplungen, der Wasserdampf-Rückkopplung? Die Clausius-Clapeyron-Gleichung impliziert, dass der von der Atmosphäre eingenommene Raum bei Erwärmung derselben fast exponentiell mehr Wasserdampf enthalten kann, aber nicht muss. Wentz (2007) kam zu dem Ergebnis, dass die Gesamt-Säule Wasserdampf pro 1 K Erwärmung um etwa 7% zunimmt. Lacis (2010) kam aufgrund dieser Zuwachsrate zu der Aussage, dass falls man die nicht kondensierenden Treibhausgase aus der heutigen Atmosphäre entfernt und die Temperatur um 36 K, also von 288 auf 252 K sinken würde, sich etwa 10% des heutigen Wasserdampfes in der Atmosphäre befinden würde, also: 100% / 1.0736 = 9%.

Spezifische Feuchtigkeit (g/kg) in den Druckniveaus 300, 600 und 1000 hPa

Obwohl die Zunahme der Wasserdampf-Säule mit Erwärmung folglich als exponentiell angesehen wird, ist der daraus folgende Rückkopplungs-Antrieb jedoch in etwa logarithmisch (genau wie der direkte CO2-Antrieb logarithmisch ist). Was noch mehr zählt ist, dass ein substantieller Anteil der daraus folgenden Rückkopplungs-Reaktion ausgeglichen wird durch eine Reduktion der Rückkopplung des geringer werdenden vertikalen Temperaturgradienten. Demzufolge ist die Wasserdampf/lapse rate-Rückkopplung in etwa linear.

Während des Zeitraumes der NOAA-Aufzeichnungen der spezifischen Feuchtigkeit in drei verschiedenen Druckniveaus (oben) erfolgte eine globale Erwärmung von 0,8 K. Wentz hätte eine Zunahme des Wasserdampfes um etwa 5,5% erwartet. Tatsächlich fand sich nahe der Erdoberfläche, wo sich der meiste Wasserdampf befindet, ein Trend der spezifischen Feuchtigkeit mit etwa diesem Wert. Aber die Reaktion der Wasserdampf-Rückkopplung in niedrigen Höhen ist gering, weil die Luft alles andere als bereits gesättigt ist.

Allerdings sank die spezifische Feuchtigkeit mit der Höhe, wo die Luft trockener ist und zunehmender Wasserdampf die einzige in Frage kommende Quelle von Erwärmung ist. Das bestätigt die Nicht-Existenz des prophezeiten „Hot Spots“ in mittlerer Höhe der Atmosphäre über den Tropen, welcher angeblich durch zunehmenden Wasserdampf-Gehalt entstehen sollte. Also gibt es kaum Beweise dafür, dass die Temperatur-Reaktion auf einen gestiegenen Wasserdampf-Gehalt und die korrespondierende Verringerung der lapse rate nicht linear ist. Andere Rückkopplungen sind nicht groß genug, um einen großen Unterschied auszumachen, selbst wenn sie nicht linear sind.

Unser Verfahren prognostiziert eine Erwärmung von 0,78 K von 1850 bis 2011. Beobachtet worden waren 0,75 K.

Ein Kommentator hat sich darüber beklagt, dass der Planck-Parameter (die Quantität, mit der ein Strahlungsantrieb in W/m² multipliziert werden muss, um in eine Temperaturänderung konvertiert zu werden) weder konstant noch linear ist: stattdessen sei er die erste Ableitung einer Relation zur vierten Potenz, die fundamentale Gleichung des Strahlungstransports. Hier müssen wir eine kleine Berechnung durchführen. Übernimmt man die gewöhnliche harmlose und vereinfachende Hypothese der konstanten Einheit Emissivität ist die erste Ableitung, d. h. die Änderung ΔTref der Referenztemperatur pro Einheitsänderung ΔQ0 der Dichte des Strahlungsflusses einfach Tref / (4Q0), und das ist linear.

Eine einfache Approximation, um breitenabhängige Variationen des Planck-Parameters zu integrieren ist es, das Schlesinger-Verhältnis anzuwenden: d. h. das Verhältnis der Temperatur TS zum Vierfachen der Flussdichte Q0 = 241,2 W/m² in der Emissionshöhe. Bei den 255,4 K, welche ohne Rückkopplungen und Treibhausgase vorherrschen würden, wäre der Planck-Parameter 255,4 / (4 X 241,2) = 0,26 K/Wm². Bei der heutigen Temperatur von 288,4 K ist der Planck-Parameter 288,4 / (4 X 241,2) = 0,30. Da ist nicht sehr viel Nichtlinearität.

Es ist daher sinnvoll anzunehmen, dass so etwas wie der mittlere Rückkopplungs-Anteil 0,08; abgeleitet aus dem Experiment, in welchem man der Atmosphäre nicht kondensierende Treibhausgase hinzufügt, weiterhin vorherrschen wird. Falls das so ist, beträgt die Gleichgewichts-Erwärmung, die man aus dem anthropogenen Antrieb der 2,29 W/m² während der industriellen Ära bis 2011 (IPCC 2013, Abb. SPM.5) erwarten kann, 2,29 / 3,2 / (1-0,08) = 0,78 K. Und tatsächlich zeigt der Trend der linearen Regression kleinster Quadrate im Datensatz der globalen mittleren Temperatur von HadCRUT4 von 1850 bis 2011 eine Erwärmung um 0,75 K.

Aber warum zeigen die Temperaturmessungen der ARGO-Bojen dann ein „Strahlungsenergie-Ungleichgewicht“, was auf mehr Erwärmung in der Pipeline hindeutet, sondern dass die enorme Wärmekapazität der Ozeane diese für jetzt absorbiert hat?

Eine Möglichkeit ist, dass die ganze Erwärmung seit 1850 anthropogenen Ursprungs ist. Nehmen wir an, dass das Strahlungs-Ungleichgewicht bis 2010 0,59 W/m² betragen hat (Smith 2015). Die Erwärmung hat dann 2,29 – 0,59 = 1,70 W/m² in den Weltraum abgestrahlt. Die Gleichgewichts-Erwärmung sowohl durch anthropogene als auch durch natürliche Antriebe bis 2011 kann damit um 34,8% größer gewesen sein als die während der industriellen Ära gemessene Erwärmung von 0,75 K: d. h. 1,0 K. Falls 0,78 dieser 1 K anthropogenen Ursprungs wäre, dann gibt es nichts, um zu verhindern, dass die restlichen 0,22 K natürlichen Ursprungs sind, geschuldet der internen Variabilität. Dieses Ergebnis ist tatsächlich konsistent mit dem vermeintlichen „Konsens“, dass über die Hälfte der jüngsten Erwärmung anthropogenen Ursprungs ist.

Die Implikation für die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei einer verdoppelten CO2-Konzentration – ist geradlinig. Den Modellen zufolge beträgt der CO2-Antrieb 3,5 W/m² pro Verdoppelung. Teilt man dies durch 3,2, um dem heutigen Planck-Parameter Rechnung zu tragen, konvertiert sich dieser Wert zu einer Referenz-Sensitivität von 1,1 K. Dann ist die Charney-Sensitivität 1,1 / (1 – 0,08) = 1,2 K. Und das ist die Grundlinie. Nicht die 3,3 K Schätzung der CMIP5-Modelle. Nicht die 11 K von Stern (2006). Nur 1,2 K pro CO2-Verdoppelung. Und das liegt weit unterhalb allem, weswegen man sich Sorgen machen muss.

Keiner der Einwände gegen unsere Ergebnisse hat sich als substantiell erwiesen. Als Beispiel seien hier Yahoo-Antworten angeführt (sogar noch unzuverlässiger als Wikipedia) mit der folgenden herrlich albernen Antwort auf die Frage „hat Monckton einen grundlegenden Fehler entdeckt?“

Damit treibt der Fragesteller das folgende unsinnige Argument vor sich her:

1. Falls ich die Temperatur von 255,4 K auf der Erde ohne Treibhausgase heranziehe und die 8 K mit Treibhausgasen dazu addiere, erhalte ich eine Temperatur von 263,4 K.

2. Was ich sagen will: diese Total-Temperatur (anstatt lediglich des Treibhausgas-Effektes) führt zu einer Rückkopplung. Und falls ich dies anwende, erhalte ich eine Rückkopplung von 1 – (263,4 / 287,6) = 0,08.

Das Problem: Wie kann die Temperatur des Planeten (255,4 K) ohne Treibhausgase dann zu einer Rückkopplung führen? Die Rückkopplung ist den Gasen selbst geschuldet. Man kann nicht argumentieren, dass die Rückkopplung und in der Folge die höhere Temperatur infolge der Treibhausgase tatsächlich der Temperatur des Planeten ohne die Treibhausgase geschuldet ist! Was er gemacht hat ist, dass er die Grundlinie, auf der die Zunahme und die Rückkopplung fußt, herangezogen hat und diese dann als Grundlinie der Quelle von Zunahme und Rückkopplung angewendet hat.

Also, ich fürchte, das ist totaler Unsinn …

Der von Yahoo Answers begangene Fehler liegt in der falschen Annahme, dass „die Rückkopplung den Gasen selbst geschuldet ist“. Nein: man muss unterscheiden zwischen den kondensierenden Treibhausgasen einerseits (eine Änderung des Wasserdampfgehaltes der Atmosphäre ist ein Rückkopplungs-Prozess) und den nicht kondensierenden Treibhausgasen andererseits wie etwa CO2 (fast alle Änderungen der Konzentration nicht kondensierender Treibhausgase sind Antriebe). Alle in Tabelle 1 gelisteten Rückkopplungs-Prozesse wären präsent sogar beim Fehlen irgendeines der nicht kondensierenden Treibhausgase.

Ein weiterer Einwand ist, dass die offizielle Klimatologie vielleicht die Rückkopplungs-Reaktion auf die Emissionstemperatur berücksichtigt. Diesem Einwand kann rasch begegnet werden. Hier ist die typische eingestampfte und verschleiernde Definition einer „Klima-Rückkopplung“ vom IPCC (2013):

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Änderung in einer Klima-Quantität eine Änderung in einer zweiten verursacht, und die Änderung in der zweiten Quantität ultimativ zu einer zusätzlichen Änderung in der ersten Quantität führt. Bei einer negative Rückkopplung wird die Änderung abgeschwächt durch die Änderungen, die sie verursacht; eine positive Rückkopplung ist eine solche, in welcher die initiale Änderung verstärkt wird. In diesem Zustandsbericht wird oft eine engere Definition angewendet, in welcher die Klima-Quantität, welche sich ändert, die globale mittlere Temperatur ist, was wiederum Änderungen des globalen Strahlungshaushaltes verursacht. In jedem Falle kann die initiale Änderung entweder externen Ursprungs sein oder als Teil der inneren Variabilität daher kommen.

Diese IPC-Definition schließt also explizit jedwede Möglichkeit einer Rückkopplungs-Reaktion aus auf eine zuvor herrschende Temperatur wie die 255,4 K Emissionstemperatur, welche auf der Erde beim Fehlen jedweder Treibhausgase und Rückkopplungen herrschen würde. Aus diesem Grunde dachte Roy Spencer, dass wir falsch lagen.

Unser einfacher Punkt bleibt: wie kann ein unbelebter Rückkopplungs-Prozess wissen, wie man zwischen der Eingangs-Emission der Temperatur von 255,4 K und weiteren 9 K unterscheidet, der sich aus dem Hinzufügen nicht kondensierender Treibhausgase zur Atmosphäre ergibt? Wie kann dieser Prozess wissen, dass er auf Ersteres schwächer reagieren sollte als auf Letzteres? Oder, falls man der IPCC-Definition folgt, auf Erstere überhaupt nicht und auf Letztere extravagant? Trotz einiger wackerer Versuche seitens der wahrhaft Gläubigen, alles zu komplizieren, ist am Ende unser Punkt so einfach – und in unserer Eingabe unwiderlegbar.

Link: https://wattsupwiththat.com/2018/04/06/looping-the-loop-how-the-ipccs-feedback-aerobatics-failed/

Übersetzt von Chris Frey EIKE