Kohlenstoff-Kolonia­lismus zurück­weisen!

Mit einer glänzenden Zurschaustellung von Menschlichkeit und gesundem Menschenverstand hat jetzt die African Development Bank (AfDB) seine Beziehungen zur Weltbank und deren den Kohlenstoff-Kolonialismus unterstützenden Gesinnungsgenossen abgebrochen. Die AfDB hat angekündigt, dass sie wieder Projekte zur Energieerzeugung auf der Grundlage von Kohle und Gas fördern wird. Der Präsident der AfDB Akinwumi Adesina drückt es so aus: „Afrika muss seinen Energiesektor mit dem entwickeln, was es hat!“

Adesina weiter: „Die entscheidende Voraussetzung für Afrika ist die Energieerzeugung. Der Kontinent weist die geringste Elektrifizierungsrate der Welt auf. Der Energieverbrauch pro Kopf in Afrika beträgt geschätzt 613 kWh pro Jahr. Man vergleiche dies mit dem Energieverbrauch in Europa mit 6500 kWh und in den USA mit 13.000 kWh. Energie ist mit großem Abstand oberste Priorität in Afrika.

Ja, die Investitionen sind teuer, aber die langfristigen Ergebnisse werden diesen Preis weit übertreffen. Um den allgemeinen Zugang zu Strom zu beschleunigen, investiert die Bank 12 Milliarden US-Dollar in den Energiesektor und bemüht sich um Mobilisierung von 45 bis 50 Milliarden Dollar von anderen Partnern“.

Nur 1 Stunde am Tag Strom

Überträgt man dies in verständliche Alltagszahlen, dann bedeuten diese Zahlen, dass der Strom, welcher überhaupt erst einen modernen Lebensstil ermöglicht ebenso wie Arbeitsplätze, Produktivität, Lebensstandards, Gesundheit, Kommunikation, Computer, Unterhaltung und Lebensspannen, den Afrikanern nur in erbärmlichen 4,7% von dem zur Verfügung steht, auf was sich die Amerikaner stützen. Man stelle sich einfach mal vor, Strom nur 1 Stunde am Tag zur Verfügung zu haben … 8 Stunden pro Woche … 411 Stunden pro Jahr – zu total unvorhersagbaren Zeiten, für wenige Minuten, Stunden oder ein paar Tage am Stück. Und das zu einem Preis, der dreimal so hoch ist wie der, den Amerikaner zahlen müssen.

Man versuche mal, auf diese Weise zu leben – oder mit Wind- und Solarsystemen, welche einfach nur sporadisch und unzuverlässig Strom erzeugen – und vielleicht den Pro-Kopf-Strom auf 10 bis 15% des US-Niveaus steigen lässt.

In Botswana, Mosambik, Südafrika, Zimbabwe und vielen anderen afrikanischen Ländern südlich der Sahara gibt es riesige Kohlevorkommen. Der staatliche Stromversorger in Südafrika Eskom schätzt, dass die 53 Milliarden Tonnen an Kohlereserven noch für 200 Jahre den Bedarf decken können! In vielen Ländern gibt es auch enorme Erdgas-Ressourcen.

Diese fossilen Treibstoffe dürfen nicht ignoriert und „im Boden gelassen werden“, um es den Öko-Imperialisten recht zu machen.

Die AfDB wird von der Trump-Regierung unterstützt, welche hinter dieser neuen Politik steht. Die USAID von Trump hat jetzt das Energie-Afrika 2.0-Programm aufgelegt, eine bedeutende Aktualisierung des Programms aus der Obama-Ära, welches erneuerbare Energie fördern und die Verwendung bezahlbarer fossiler Treibstoffe verhindern sollte.

USAID sagt, dass Energie Afrika 2.0 „eines der größten öffentlich-privaten Partnerschaften“ ist in der Historie der Entwicklungshilfe ist, mit Verpflichtungen von über 54 Milliarden Dollar von seinen über 150 Partnern im öffentlichen und privaten Sektor“.

Das Obama-Programm hatte es fertig gebracht, Finanzmittel für gerade mal 7300 MW Stromerzeugungs-Kapazität bereitzustellen (15% dessen, was Deutschland im Jahre 2016 mit Kohle erzeugt hat!) – und das meiste davon bestand in teuren und unzuverlässigen Wind- und Solar-Einheiten. Sogar Bloomberg sagte, dass die „Signatur-Initiative für Afrika“ von Präsident Obama „weit hinter deren Zielen zurückgeblieben war“ (hier) und weniger als 5% des versprochenen Stromes erzeugt hat. Außerdem war fast dieser gesamte Strom nur sporadisch verfügbar und teurer Wind- und Solarstrom – was hunderte Millionen Afrikaner „im Dunklen“ beließ.

Der einzige fossile Treibstoff, der potentiell unter Obamas Programm noch erlaubt war, war Erdgas. Aber selbst diesbezüglich hat es die Overseas Private Investment Corporation abgelehnt, den Bau eines 130-MW-Kraftwerkes in Ghana zu unterstützen, welches sauberes Erdgas verbrannt hätte, das sonst „abgefackelt“ und verschwendet worden wäre.

Der USAID-Administrator Mark Green sagte, das neue Ziel von Power Afrika seien 20.000 MW bis zum Jahr 2020, und zwar mittels „bezahlbarer, zuverlässiger Energie“, womit in den meisten Fällen Kohle gemeint ist. In größerem Rahmen hat die Trump-Regierung eine „global fossil fuel alliance“ auf den Weg gebracht. Energieminister Rick Perry nennt dies oft einen „neuen Energie-Realismus“ bei der Entwicklung des globalen Energiebedarfs und sagt, dass fossile Treibstoffe absolut unabdingbar seien für Entwicklungsländer, vor allem in denjenigen, in denen die Menschen immer noch keinen Strom haben.

Sogar in Südafrika, dem am meisten elektrifizierten und fortschrittlichsten Land im Afrika südlich der Sahara, bedeutet eine unzureichende Stromversorgung zu häufig Stromverknappung, welche die Produktivität von Firmen und Bergbau beeinträchtigt sowie Krankenhäuser und Schulen weit unterhalb optimaler Niveaus arbeiten lässt. Die Raten der Müttersterblichkeit sind 35 mal höher als in den USA, die Tuberkulose-Raten 230 mal höher, und Tausende sterben immer noch jedes Jahr an Lungen- und Darmkrankheiten.

Aber die Kohlenstoff-Kolonialisten der Weltbank haben trotzdem Südafrika brüskiert, als das Land einen Kredit zur Fertigstellung des Kohlekraftwerkes Medupi beantragte – trotz fortschrittlicher Verfahren zur Verschmutzungskontrolle. Mit der Behauptung, dass das Projekt Klima- und Nachhaltigkeits-Ziele verletzt, haben der Sierra Club und andere Agitatoren die Bank gedrängt, den Antrag abzulehnen. Die Obama-Regierung stimmte ultimativ „present“ [?] und der Kredit wurde nur durch eine Mehrheit anderer Mitgliedsländer bei der Weltbank genehmigt.

16% der Weltbevölkerung – und 53% ohne Strom

Lässt man Südafrika einmal außen vor, „erfreuen“ sich die Nationen südlich der Sahara an einem minimalen Stromverbrauch von 181 kWh pro Kopf und Jahr, das sind 1,4% des Stromverbrauchs eines normalen Amerikaners! Tatsächlich leben in Afrika 16% der Weltbevölkerung – und 53% der Weltbevölkerung ohne Stromanschluss! Da ist es kein Wunder, dass Botswana, Kenia, Tansania und andere Länder ihr Schicksal in die eigene Hand nehmen und Dutzende Kohlekraftwerke errichten.

Prof. Rosemary Falcon weist darauf hin, dass saubere Kohle nicht nur praktikabel, sondern auch die billigste Art ist, Strom zu erzeugen auf einem Kontinent, wo doppelt so viele Menschen wie die USA Einwohner haben ohne Strom leben müssen. Ihre „Forschungsgruppe nachhaltige Kohle“ entwickelte ein Verfahren, mit welchem Kohle minderer Qualität von Kohle besserer Qualität unterschieden werden kann. Die Kohle minderer Qualität wird gebrochen und alle Komponenten entfernt, die nicht gut brennen. Diese dann in fortschrittlichen Kohlekraftwerken zu verbrennen erzeugt mehr Strom mit „weniger Asche, weniger Rauch, mehr Wärme und längerer Brenndauer“. Das ist saubere Kohle.

Jedes Land könnte so verfahren, falls nur der „politische Wille“ dafür vorhanden wäre, sagt der Nigerianer Sam Bada, Mitglied in Falcons Team. „Ich bin es leid, von Menschen in reichen Ländern belehrt zu werden, welche niemals auch nur einen Tag ohne Strom leben mussten. Vielleicht sollten sie einfach nach hause gehen und ihre Kühlschränke, Heißwasserbereiter, Laptops und Lichter ausschalten. Dann sollten sie monatelang so leben und uns sagen, die wir Jahre lang unter diesen Umständen gelitten haben, keine Kohle zu verbrennen“.

All dies hilft zu erklären, warum die AfDB das macht, was alle MDBs tun sollten. Sie hat 12 Milliarden Dollar für ein Programm bereitgestellt mit der Bezeichnung „New Deal on Energy for Africa”. Mr. Adesina sagt dazu: „Afrika hat viel Energiepotential, aber das Potential allein erzeugt gar nichts. Wir können nicht damit fortfahren, Afrika als den ,dunklen Kontinent‘ zu begreifen. Wir müssen unsere Pläne beschleunigen, um Afrika mit Licht und Energie zu versorgen“.

Technologien „grüner“ Energie existieren nicht … außer in Klassenräumen, Computermodellen, IPCC-Berichten, Al Gore-Lektionen und befürwortender Literatur.

Es hilft zu erklären, warum Afrika, China, Indien, Indonesien und andere es ablehnen, den Verbrauch von Kohle und Gas einzuschränken – und es gleichermaßen ablehnen, sich auf „grüne“ Energie-Technologien zu verlassen, die nicht existieren … außer in Klassenräumen, Computermodellen, IPCC-Berichten, Al Gore-Lektionen und der Literatur von Unternehmen erneuerbarer Energie.

Behauptungen der Art, dass 97% aller Wissenschaftler darin übereinstimmen, dass wir vor einem „Kipp-Punkt“ des vom Menschen verursachten Klimawandels stehen, sind nur dann richtig, wenn man über Bürokraten, Aktivisten und Klimatologen spricht, die üppige Gelder der Steuerzahler einsacken und die Menschen für ein vermeintliches Klima-Chaos verantwortlich machen. Jenseits des Tellerrandes, über den sie nie schauen, gibt es zuhauf rationale wissenschaftliche Diskussionen über globale Erwärmung und Abkühlung, die Segnungen von Kohlendioxid und eine ganze Palette damit zusammenhängender Themen: hier, hier, hier, hier, hier und hier, um nur einige zu nennen.

Und wie kann irgendjemand vermeintliche Klimaprobleme vergleichen mit den sehr realen, unmittelbaren und tödlichen Problemen der Dritten Welt, verursacht und verewigt, indem die Menschen dort gezwungen werden, sich weiterhin auf Holz, Holzkohle und Dung zu verlassen – also die Treibstoffe, die zu Armut, Elend, Krankheit und frühen Tod führen? Die Menschen in diesen Ländern sind keine entbehrlichen Versuchstiere, mit denen man Programme erneuerbarer Energie ausprobieren kann. Sie dürfen nicht länger so behandelt werden.

Viele Länder unterzeichneten das Paris-Abkommen, weil man ihnen zahllose Milliarden Geld für Abschwächung, Anpassung und Kompensation versprochen hatte. Der Green Climate Fund [auf Deutsch beim EIKE hier] ist inzwischen praktisch außer Betrieb. Dessen Direktor ist zurückgetreten, und nahezu niemand bedauert das. Eigentlich sollte das ein weiterer lauter globaler Weckruf sein.

Entwicklungsländer erkennen immer mehr, dass sie weitgehend auf sich gestellt sind. Andere Nationen sollten ihnen folgen und diese tragische Faszination für das Zauberpulver ,grüne Energie‘ ablegen. Die Welt braucht nach wie vor Öl, Gas, Kohle, Kern- und Wasserkraft – also die Treibstoffe, welche moderne Lebensstandards, Wohlstand, Gesundheit und gutes Leben überhaupt erst möglich machen.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and author of books and articles on energy, climate change and economic development. David Wojick is an independent analyst specializing in science and logic in public policy.
Link: https://www.iceagenow.info/rejecting-carbon-colonialism/




Das Klimaziel

Wenn man davon ausgeht, dass „Klima“ eine Gesamtheit meteorologischer Vorgänge über einen längeren Zeitraum beschreibt, so lässt einen das fusionierte Substantiv „Klimaziel“ einigermaßen ratlos zurück. Der Begriff ist ein Paradebeispiel neudeutscher Sprachpanscherei.

Nehmen wir es wörtlich und stellen uns vor, wie der Beschluss eines Bundeskabinetts zu einem Klimaziel aussehen müsste. Da Deutschland hinreichend groß ist, um differenzierte Klimata aufzuweisen, würden die Ziele in einer Anlage genannt und nach Regionen aufgeschlüsselt, so wie es zum Beispiel die Wärmeversorger und Heizungsprojektanten tun. Diese setzen vier Klimazonen in Deutschland an, die aber für konkrete Klimaziele zu grob gefasst wären. Folgende Formulierung ist denkbar:

Die Bundesregierung legt die in der Anlage genannten Klimaziele für das Jahr 2030 für die einzelnen Klimazonen fest.“

Anlage: Zone Breisgau, Bodenseeregion, Schwäbische Alb:

Jahresmittel = xx Grad

Relatives Luftfeuchtemittel = xx %

Niederschlagsmittel = xxxx mm

Durchschnittliche Sonnenscheindauer = xxxx Stunden

Windmittel = x,x m/s

Hauptwindrichtung: XX“

Dies wäre ein beschlossenes Klimaziel, das auf dem langfristigen regionalen Wetter beruht, welches zur Erreichung von Zielen irgendwie beeinflusst werden müsste.

Gemeint ist natürlich anderes. Es ist gängige Praxis, allen Vorgängen, die irgendwie mit Treibhausgasemissionen zu tun haben, den Begriff „Klima“ anzupappen. Eigentlich gehört jeder dieser Begriffe in Anführungszeichen gesetzt, aus Gründen der Lesbarkeit verzichte ich darauf.

Unpräzise Sprache verrät unpräzises Denken und öffnet den Weg zum Klimapopulismus. Komplizierte Sachverhalte zu simplifizieren und einfache Lösungen anzubieten („Abschalten“) sind Kennzeichen des Populismus und helfen in der Realität nicht weiter. Die Basis bildet der durch Computersimulationen gestützte Gedanke, dass höhere Treibhausgasemissionen zwangsläufig zu höheren Temperaturen von Erde, Luft und Wasser führen. Damit ist zu den weiteren Klimaparametern nichts gesagt. Auch die Frage, welche Temperatur maßgebend ist, bleibt offen, denn eine messbare Globaltemperatur gibt es nicht. Nehmen wir an, am Nordpol steigt in wenigen Jahren die Temperatur um drei Grad, in der Wüste Gobi sinkt sie um drei Grad, so wäre die Globaltemperatur zwar konstant, aber regional mit gravierenden Auswirkungen verbunden.

Die schlichte Annahme, nach zu viel „Gas geben“ könne man durch „Gas wegnehmen“ die Geschwindigkeit eines Temperaturanstiegs regeln wie die eines Autos, wird dem komplizierten Gesamtsystem Atmosphäre mit ihren vielen Einflussfaktoren nicht gerecht. Der erbittert geführte und emotionalisierte Streit um das nicht mehr erfüllbare Ziel 2020 lässt sich nur damit erklären, dass dieser simplifizierte Wirkungsmechanismus derart naiv angenommen wird. Nehmen wir aber an, es wäre tatsächlich so einfach und betrachten die deutschen Klimaschutzbemühungen. Nun streiten sich Klimaschutzparteien und andere Beteiligte um eine aus etwa 70 Millionen Tonnen CO2 zu erwartende Differenz. Das sind zirka 0,17 Prozent der globalen jährlichen anthropogenen Emissionsmenge. Dass dieser Anteil eine Atmosphärenreaktion hinsichtlich der Temperatur hervorruft, ist sehr, sehr unwahrscheinlich. Eher erscheint vor dem Bundestag ein pinkfarbenes Einhorn auf einem Fahrrad.

Klimazeichensetzung

In Gesprächen geben unsere Klimabewegten durchaus zu, dass derart geringe Anteile keine Wirkung haben werden. Der wichtigste Antrieb für ihren Kampf besteht darin, „Zeichen setzen“ zu wollen, damit sich Deutschland als internationaler Vorreiter präsentieren kann. Sie geben hinter vorgehaltener Hand zu, dass eine fulminante Wirtschaftskrise die wirksamste Klimaschutzmaßnahme wäre. Dies wirft ein ehrliches Licht auf die vorgebliche Harmonie der vom Klimaschutz okkupierten Ökologie und der Ökonomie.

Die Abkehr von pragmatischer ergebnisorientierter Politik hin zur „Zeichensetzung“ erleben wir auch auf anderen politischen Feldern wie den Auslandseinsätzen der Bundeswehr oder der Entwicklungshilfe. Vernunftgeleitete Politik würde auf realistische Ziele ausgerichtet sein, was auf dem Energiesektor eher schlecht für die Raum greifende semistaatliche Subventionswirtschaft wäre.

In ihrer Zielfestlegung hat sich unsere Regierung grandios verschätzt und schlampig gearbeitet und das wird wie bei der Brennelementesteuer und den Reststrommengen teuer. Das neue Milliardenrisiko besteht nun darin, dass EU-Emissionsvorgaben für Verkehr und Gebäude deutlich verfehlt werden. Berechnungen zeigen, dass selbst bei moderaten Klimaschutzerfolgen bis zu 30 Milliarden Euro an Zahlungen an die EU drohen. Dafür sind Emissionsmengen von anderen Mitgliedsländern zu erwerben. Die Annahmen unserer Regierung zu möglichen Emissionsminderungen in den Bereichen, die nicht dem Emissionshandel unterliegen, waren unrealistisch.

Der einfachere Weg, den Energiesektor weiter par ordre du mufti durch Abschaltungen von Kraftwerken zu Emissionssenkungen zu bewegen (obwohl diese bisher fast ausschließlich aus diesem Sektor kamen) birgt wiederum die Gefahr von Schadenersatz an die Konzerne. Zeichensetzen kann teuer werden.

Auch die Klimaziele des Pariser Vertrags 2015 scheinen schon veraltet. Neue energiehungrige Technologien wie die Kryptowährungen sind nicht berücksichtigt. Der Bitcoin klettert derzeit auf einen Kurs von mehr als 7.500 Dollar, der zu seiner Erstellung nötige Strombedarf ist erheblich und wächst anscheinend ungebremst. Für 2018 schätzt man den Aufwand weltweit auf etwa 140 Terawattstunden, was dem Jahresbedarf Argentiniens entspricht oder 0,6 Prozent des weltweiten Stromverbrauchs. Das klingt zunächst nicht viel, aber der Gradient ist erheblich.

42.000 Kilowattstunden sind gegenwärtig nötig, um einen einzigen Bitcoin zu „schürfen“. Zum Vergleich: Ein Dreipersonenhaushalt braucht etwa 3.500 Kilowattstunden – pro Jahr. Auch die steigende Weltbevölkerung, 11 Milliarden im Jahr 2050, scheint im Pariser Vertrag nicht dezidiert abgebildet. Es handelt sich bei ihm um eine Zusammenstellung von Absichtserklärungen der einzelnen Staaten.

Was Deutschlands nicht erreichte Ziele angeht, ist die beschriebene Emissionslücke nicht einsam. Auch eine Million E-Fahrzeuge werden wir 2020 nicht auf unseren Straßen sehen. Die Senkung der Verkehrsemissionen beträgt ziemlich genau Null, auch hier eine erhebliche Zielabweichung. Das Kanzlerinnenziel von 2011, die EEG-Umlage bei 3,5 Cent pro Kilowattstunde zu halten, wurde ebenso nicht erfüllt.

Erfolgserlebnisse sind organisierbar. Wenn politische Ziele in Serie nicht erreicht werden, könnte man sich mit einem Beschluss zu den Uhrzeiten der Sonnenauf- und -untergänge Mut machen. Er würde vermutlich erfolgreich umgesetzt – wenn man sich an den Kalender hält.




Scharlatane der Arktis … Lach­nummer eisfreie-Arktis-Prophe­zeiungen … Fake-Wissen­schaft vom Feinsten

Und die Alarmisten der globalen Erwärmung sind mittlerweile sehr still geworden bzgl. des Themas Klimawandel angesichts der Tatsache, dass die globalen Temperaturen gesunken sind und sich das arktische und grönländische Eis erholt haben.
Darüber sehr verlegen wollen sie nicht an all die absurden Prophezeiungen erinnert werden, die sie so inbrünstig vor zehn Jahren ausgestoßen haben; einige dieser Prophezeiungen sind nicht einmal älter als fünf Jahre.

Die Welt“ 2007: „Eisfrei“ bis 2013

Beispielsweise hat die Online-Ausgabe der Tageszeitung „Die Welt“ im Jahre 2007 gemeldet, dass „ein Team internationaler Klimawissenschaftler und Forscher bei der NASA behauptet hatten, dass die Arktis bereits im Sommer 2013 eisfrei sein werde.

„Der Welt“ zufolge stellte der „Klimaexperte“ Wieslaw Maslowski von der NASA die Behauptung auf bei einem Treffen der American Geophysical Union.

Al Gore warnte in den Jahren 2007, 2008 und 2009

Etwa zur gleichen Zeit predigte der Klima-Kreuzzügler Al Gore einen unmittelbar bevorstehenden arktischen ,Tag des Jüngsten Gerichts‘ [doomsday]. Der New American schrieb dazu:

In den Jahren 2007, 2008 und 2009 warnte Gore öffentlich und sehr hysterisch davor, dass der Nordpol um das Jahr 2013 ,eisfrei‘ sein werde infolge der vermeintlichen, ,vom Menschen verursachten globalen Erwärmung‘. Unter Verweis auf ,Klima-Experten‘ hat die vom Steuerzahler finanzierte BBC die Massenhysterie ungeheuer aufgebauscht, und zwar in Gestalt eines heute blamablen Artikels mit der Schlagzeile Arctic summers ice-free ,by 2013’. Andere etablierte Medien stießen in das gleiche Horn.

Sereeze bei CNN Fake News: „50-50-Chance“ einer eisfreien Arktis

Nicht nur fanatische Aktivisten oder hysterisch durchgedrehte NASA-Wissenschaftler sahen Visionen eines Endes der Arktis, sondern auch ein führender Wissenschaftler am National Snow and Ice Data Center (NSIDC). Mark Sereeze verkündete im Juni 2008 bei CNN, dass es eine Wahrscheinlichkeit 50 zu 50 einer eisfreien Arktis zum Ende des Sommers gebe.

Nun, zumindest sollte man anerkennen, dass Sereeze eine gewisse Unsicherheit einräumt.

Hansen: Arktis spätestens 2018 eisfrei

Vor nicht allzu langer Zeit hat Tony Heller bei Real Science hier berichtet, dass James Hansen am 23. Juni 2008 gesagt hat: „Wir werden geröstet werden, wenn wir nicht einen gänzlich anderen Weg einschlagen“, und dass Hansen und seine Mit-Wissenschaftler einen ,Kipp-Punkt‘ direkt vor ihren Augen entstehen sehen, und dass die Arktis genau so dahin schmolz wie sie es vorhergesehen hatten.

Hansen fügte noch hinzu, dass die Arktis in 5 bis 10 Jahren eisfrei sein werde. Nichts dergleichen ist jemals eingetreten.

,Der Spiegel‘: Segelbotte in einer eisfreien Arktis im Jahre 2008

Am 27. Juni 2008 verwies ,Der Spiegel‘ auf Wissenschaftler, als er berichtete, dass die Arktis „mit brutaler Geschwindigkeit abschmilzt“.

Das Wochenmagazin zitierte auch den Forscher Olav Orheim vom Norwegian Research Council: „Bereits im vorigen Oktober prophezeite ich, dass die Arktis in diesem Sommer eisfrei werden könnte“ und dass „im August oder September Menschen in Segelbooten dort kreuzen werden“.

Seth Borenstein: Planet hat „einen ominösen Kipp-Punkt durchlaufen“

Am 12. Dezember 2007 berichtete Seth Borenstein von AP im National Geographic, dass der Planet Wissenschaftlern zufolge einen „ominösen Kipp-Punkt durchlaufen habe“ und dass die Arktis „schrie“, als ob sie in ihren Todeswehen liegen würde.

Jay Zwally, NASA: Nahezu eisfrei am Ende des Sommers 2012

Der NASA-Klimawissenschaftler Jay Zwally wurde ebenfalls im National Geographic erwähnt, und zwar mit seinen Worten: „Nach der Begutachtung seiner eigenen neuen Daten sage ich, dass die Arktis mit dieser Rate zum Ende des Sommers 2012 nahezu eisfrei sein könnte, also viel schneller als nach Prophezeiungen zuvor“.

John Kerry: Eisfrei bereits 2013, nicht erst 2050

Am 16. Oktober 2009 nannte Senator John Kerry hier bei der Huffington Post den Klimawandel „eine Bedrohung der nationalen Sicherheit“. Weiter schrieb er:

Er ist bereits über uns gekommen, und seine Auswirkungen sind weltweit zu spüren, jetzt und hier. Wissenschaftler projizieren, dass die Arktis bereits im Sommer 2013 eisfrei sein wird. Nicht erst 2050, sondern schon in vier Jahren.

Sierra Club Kanada 2013: „Eisfrei in diesem Jahr“

Der Sierra Club Kanada meldete im Jahre 2013, dass die Arktis noch in jenem Jahr eisfrei sein werde (hier).

Wer den Link anklickt, wird jedoch sehen, dass er nicht mehr funktioniert. Vielleicht wurde das Ganze einfach zu peinlich, weshalb man den Link entfernte.

Das Wadhams-Debakel

Und schließlich war da noch Peter Wadhams, Professor für Ozean-Physik und Leiter der Polar Ocean Physics Group im Fachbereich Applied Mathematics and Theoretical Physics an der University of Cambridge. Er sagte im Jahre 2007, dass das arktische Meereis im Jahre 2013 vollständig verschwunden sein werde. Man vergesse nicht: Wadhams war ein anerkannter Experte.

Sechs Jahre später, also 2013, hatte das Meereis stattdessen um satte 25% zugenommen! Im Jahre 2012 änderte Prof. Wadhams seine Prophezeiung auf das Jahr 2016. Natürlich ist auch das niemals eingetreten.

Die Realität: Heute weist die Arktis das dritthöchste Meereis-Volumen seit 16 Jahren auf.

Heute zeigt das arktische Meereis nicht die geringsten Anzeichen des Abschmelzens, und in Wirklichkeit wurde ein paar Tage lang das dritthöchste Eisvolumen seit 2003 verzeichnet. Der japanische Klimablogger Kirye zeigte auf Twitter diese Graphik:


Link: http://notrickszone.com/2018/07/21/charlatans-of-the-arctic-laughing-stock-ice-free-arctic-predictions-fake-science-at-its-best/
Übersetzt von Chris Frey EIKE




Eimer-Liste: Historische Temperatur­daten der globalen Ozeane – deren Bestim­mung ist ein einziger Witz von Fehlern

Erkunden wir also, wie die globalen Ozean-Temperaturen gemessen worden sind. Zunächst dazu eine Referenz für die weitere Diskussion:

Bei Wikipedia findet sich unter der Quellenangabe NASA Goddard eine illustrative Graphik der globalen Temperatur mit einer darüber gelegten Glättung über fünf Jahre. Konzentrieren wir uns auf die Abkühlungsperiode von Mitte der vierziger bis Mitte der siebziger Jahre. Man kann das rapide Einsetzen der Abkühlung erkennen mit etwa 0,3°C im Jahre 1945 sowie die Umkehrung danach.

Abbildung 1: Temperaturindex Land ↔ Ozean von 1880 bis heute mit der Referenzperiode 1951 bis 1980. Die durchgezogene schwarze Linie stellt das globale jährliche Mittel dar, und die rote Linie ist eine Fünf-Jahre-Glättung, d. h. eine nicht parametrische Regressions-Analyse auf der Grundlage eines k-nearest-neighbor-Modells [?]. Die Funktion ist evaluiert mittels eines Bruchteils der Daten, die mit einem Zehn-Jahre-Fenster der Daten korrespondieren. Das ergibt eine effektive Glättung über etwa fünf Jahre. Die blauen Unsicherheits-Balken (95% Vertrauenslimit) berücksichtigen nur die unvollständige räumliche Datensammlung. Grundlagen sind die Abbildung 1A in Hansen et al. (2006) und Abbildung 9a in Hansen et al. (2010). Quelle

Die Studie von Thompson et al. (2008) in Nature erregte meine Aufmerksamkeit. Gavin Schmidt von RealClimate und auch New Scientist gaben Kommentare dazu ab. Thompson behauptet, den Grund dafür gefunden zu haben, warum die Abkühlung während der vierziger Jahre mit einer so drastischen Umkehrung des Erwärmungstrends zuvor begann. Dieser Umstand machte den Wissenschaftlern schon lange Kopfzerbrechen. Der Grund für diese Umkehr wurde angegeben als ein Wechsel bei den Verfahren der Messung von Ozean-Temperaturen. Das heißt, als man das Verfahren der Messung der Wassertemperatur aus mit Eimern geschöpften Wasser änderte und die Temperaturen einströmenden Kühlwassers maß.

Diese Abkühlungsperiode wollen wir einmal näher unter die Lupe nehmen.

Vor und nach dem 2. Weltkrieg wandte die britische Flotte das ,Eimer-Verfahren‘ an, um Ozeanwasser für dessen Temperaturmessung abzuschöpfen. Das heißt, ein Eimer Wasser wurde mit einem Flüssigkeits-Thermometer gemessen. Das andere oft angewendete Verfahren war die Messung der Temperatur von in Motoren einströmendem Kühlwasser.

Diese beiden Messverfahren werden im Jahre 2008 in einem Brief an Nature erklärt, wobei Thompson et al. sich der folgenden Wortwahl bedienten (SST = Wassertemperatur):

Die bemerkenswerteste Änderung im SST-Archiv nach Dezember 1941 erfolgte im August 1945. Zwischen Januar 1942 und August 1945 stammen etwa 80% der Messungen von US-Schiffen und ~5% von UK-Schiffen. Zwischen Ende 1945 und 1949 stammen dagegen nur ~30% der Messungen von US-Schiffen und ~50% von UK-Schiffen. Diese Änderung im August 1945 ist aus zwei Gründen bedeutsam: Erstens, im August 1945 erfolgten die Messungen auf US-Schiffen in Kühlwasser, während die UK-Messungen mittels des Eimer-Verfahrens durchgeführt wurden. Zweitens, das in Motoren einströmende Kühlwasser war allgemein zum Wärmeren hin verzerrt im Vergleich zu den nicht isolierten Eimermessungen.

Klimabeobachter hatten eine Delle bemerkt im Delta zwischen der Wassertemperatur und der nächtlichen Lufttemperatur (NMAT). Daher glaubte man die Ursache für den unerwarteten Wechsel der Temperatur um 0,3°C um das Jahr 1945 gefunden zu haben. Darauf verzerrte und modifizierte man die Aufzeichnungen. Die angebrachten Bias-Korrekturen könnten Thompson zufolge „die Jahrhunderte langen Trends der Wassertemperaturen aus jüngster Zeit um bis zu ~0,1°C zunehmen lassen“.

Vermutlich wurde diese Bias-Korrektur an prominenter Stelle in der Sumary for Policymakers des IPCC-Berichtes 2007 hervorgehoben. Dabei erhoben sich jedoch folgende Fragen: Wie ist die Korrektur von 0,1°C von Thompson angebracht worden – einheitlich? Über welchen Zeitraum? Ist die Zahl 0,1°C geraten oder willkürlich herausgepickt? Werden dabei irgendwelche Messfehler berücksichtigt, wie sie weiter unten in diesem Beitrag besprochen werden?

Ein fundamentale Frage erhebt sich: wie authentisch ist unsere Temperaturaufzeichnung? Mit wie viel Vertrauen können wir Trendlinien und zukünftige Szenarien abschätzen? Es ist offensichtlich, dass wir die Zahlen kennen müssen innerhalb der 0,1°C-Genauigkeit, um eine vernünftige Interpretation der Aufzeichnungen vornehmen und um glaubwürdig zukünftige globale Temperaturen projizieren zu können.

Wir werden die Messverfahren der Ozean-Wassertemperaturen detailliert untersuchen und dabei erkennen, dass die Datenaufzeichnung sehr grob ist, oftmals um mehr als eine Größenordnung!

Zunächst ist es erforderlich, die Grundlagen zu beschreiben, um allgemeines Verständnis zu erlangen.

2. Die Grundlagen

Ich denke, man kann allgemein zustimmen, dass für die Ableitung definitiver Trends aus globalen Temperaturdaten diese eine Auflösung mindestens innerhalb ± 0,1°C aufweisen müssen. Eine alte Daumenregel für jedwedes Instrument besagt, dass die Messung dreimal so genau sein muss wie die avisierte Auflösung. In unserem Falle sind das 0,03°C.

Thermische Instrumenten-Charakteristika definieren Fehler in Prozent über die gesamte Bandbreite. Read-out resolution is another error, as is read-out error. Beispiel: Nehmen wir an, ein Thermometer hat eine Bandbreite von 200 Grad. 2% Genauigkeit sind dann 4 Grad, Auflösung ist 2 Grad. Die Ablese-Genauigkeit möge 0,5 Grad betragen, das ist die Abstufung, die man noch unterscheiden kann, falls man ,angemessen blinzeln‘ kann.

Wenden wir uns jetzt den Instrumenten selbst zu.

Die Temperatur wird direkt gemessen mittels normaler Thermometer mit Flüssigkeits-Kapillare. Es gibt aber auch Bimetall-Thermometer und mit Hilfe von Elektronik auch Thermistoren sowie noch ein paar andere Verfahren. Via Satellit gemessene Temperaturen auf der Erde werden indirekt aus der Reflektion infraroter Strahlung gemessen.

Wir alle kennen das normale Flüssigkeits-Thermometer, mit dem wir es täglich zu tun haben. Diese sowie die Bimetall-Thermometer haben eine typische Genauigkeit von ± 1 bis 2 Prozent und sind nicht genauer als bis zu 0,5°C. Die Thermistoren können bei präziser Kalibrierung höchst genau messen.

Die Temperaturmessungen in der Natur konzentrieren sich nicht nur auf das Messinstrument selbst. Es handelt sich immer um ein System, welches bis zu verschiedenen Ausmaßen das Datengewinnungs-Verfahren umfasst, die die kurzzeitige Datenspeicherung, Daten-Konversion und Übertragung, Manipulation usw. Man füge noch die zeitlichen Variationen hinzu, das Umfeld des Messpunktes, der Aufzeichnung, des Sensor-Abtriebs und -Verschleiß, Variationen des zu messenden Mediums, verschiedene Beobachter und Interpreten usw. All dies leistet einen Beitrag zum Systemfehler. Die individuellen Fehlerkomponenten werden unterteilt in die festen bekannten Fehler – Fehler und Streuung – und variable Fehler. Außerdem müssen wir auf die ,signifikanten Zahlen‘ achten, da sich eine falsche Genauigkeit einschleichen kann, wenn man den Gesamtfehler berechnet.

Zusammenstellung der Fehler:

Alle als Zufallsfehler erkannten Fehler werden kombiniert mittels der Quadratwurzel der Summe der Quadratzahlen (RSS). Systematischen Fehlern wird durch algebraische Summierung Rechnung getragen. Die Gesamt-Ungenauigkeit ist die algebraische Summe des Gesamt-Zufallsfehlers und des Gesamt-Systemfehlers.

3. Vorherrschende Messverfahren der Ozean-Wassertemperatur

a. Satellitenbeobachtungen

Die Datenerfassung der Wassertemperatur mittels Infrarot-Sensoren an Bord von NOAA-Satelliten erfolgte mit hoch auflösenden Radiometern [high-resolution radiometers].

Die Messungen sind indirekter Natur und müssen die mit anderen Parametern assoziierten Unsicherheiten berücksichtigen, die nur grob geschätzt werden können. Nur die oberste Wasserschicht kann gemessen werden, welche einen starken Tagesgang-Fehler aufweisen kann. Satellitenmessungen begannen in den siebziger Jahren, so dass es keine Korrelation mit früheren Messungen gibt. Da es sich allerdings um indirekte Verfahren der Wassertemperatur-Messung handelt und es viele Schichten von Korrekturen und Interpretationen mit einheitlichen Fehleraspekten gibt, werden diese hier nicht weiter behandelt. Ein derartiges Unterfangen würde eine gesamte neue detaillierte Abschätzung erfordern.

b. Direkte Messungen der Wassertemperatur – historisch

Bevor man verstanden hatte, dass die thermischen Gradienten in tieferen Wasserschichten der Ozeane von Bedeutung waren, war es üblich, die Wassertemperatur in mit Eimern geschöpftem Ozeanwasser zu messen. Ersteres wurde überlebenswichtig für den U-Boot-Krieg vor und während des 2. Weltkrieges. Zuvor brauchte man die Wassertemperatur lediglich für die Wettervorhersage.

Das ,Eimer-Verfahren‘:

Üblicherweise wurde ein Holzeimer von einem fahrenden Schiff über Bord geworfen und danach ein Thermometer in die so gewonnene Wasserprobe gehalten. Nach den Holzeimern kamen Eimer aus Segeltuch in Gebrauch.

Abbildung 2: (a) Holzeimer, (b) Eimer aus Segeltuch, (c) German scoop (moderne Version). Mehr

Mit der steigenden Berücksichtigung der Genauigkeit von Messungen kamen Eimer aus Segeltuch in Gebrauch. Zusätzlich zu der typischen Thermometer-Genauigkeit von 0,5 bis 1,0°C gab es viele Quellen von Zufallsfehlern, als da wären:

Tiefe des Eintauchens des Eimers

Durchmischung der Wasseroberfläche durch variable Wellenhöhen und Wolkenbedeckung

Aufwühlen der Wasseroberfläche durch die Schiffsschrauben

variable Unterschiede zwischen Luft- und Wassertemperatur

Relativbewegung der Schiffsroute zur Windrichtung

Größenordnung von Wind- und Schiffsgeschwindigkeit kombiniert

Zeitspanne zwischen Schöpfen des Wassers und der tatsächlichen Thermometermessung

Zeitspanne, bis sich das Thermometer auf die Wassertemperatur eingestellt hat

Ausmaß der Thermometer-Bewegung (falls vorhanden)

Ablesung am Rand oder in der Mitte des Eimers

Abkühlung des Thermometer-Messfühlers während der Ablesung

Sehschärfe und Verhalten des Ablesenden

Effektivität der Eimer-Isolation und Verdunstungs-Abkühlungseffekte durch leckende Eimer

thermische Wechselwirkungen zwischen Eimer und Schiffsdeck

Hier folgt eine Infrarot-Sequenz, die zeigt, wie sich Wasser in einem Stoffeimer abkühlt:

Abbildung 3 (a) bis (d). Thermische Bilder in 5-Minuten-Intervallen in einem Stoffeimer des Met.Office, der mit warmem Wasser gefüllt ist und vor einem Ventilator rechts in diesen Bildern montiert ist. Der Eimer wird nicht bewegt und der Deckel ist geschlossen.

Diese Bilder stammen aus folgender Studie:

Messungen und Modellierungen der Temperaturänderung von Wasserproben in Eimern zur Messung der Ozean-Wassertemperatur

Grazielle Carella und Alexis R.Morris

Man nimmt an, dass Unsicherheiten bei der Berücksichtigung von Bias-Adjustierungen historischer Messungen der Wassertemperatur mittels Eimern den größten Beitrag zu Unsicherheiten bei globalen Temperaturtrends leisten. Die Ergebnisse zeigen, dass die Modelle nur sehr grob imstande sind, die Abhängigkeit der Temperaturänderung des Wassers mit der Zeit über thermischen Antrieb und Eimer-Charakteristika zu erfassen: Volumen und Form, Struktur und Material. Sowohl die Modelle als auch die Beobachtungen zeigen, dass der bedeutendste Umweltparameter, der Temperatur-Verzerrungen in historischen Eimer-Messungen beeinflusst, der Unterschied ist zwischen dem Wasser und Flüssigkeits-Thermometern. Vermutungen, die inhärent in der Interpretation der Modelle vorhanden sind, beeinträchtigen wahrscheinlich deren Anwendbarkeit. Wir beobachteten, dass die Wasserprobe kräftig umgerührt werden musste, um mit den Modellergebnissen überein zu stimmen. Dies lässt gute Durchmischung annehmen. Es gab Inkonsistenzen zwischen den Modellergebnisse und früheren Messungen in einem Windkanal im Jahre 1951. Das Modell nimmt ein nicht turbulentes Anströmen an und prophezeit konsequent eine in etwa quadratische Abhängigkeit von der Windgeschwindigkeit. Bei Turbulenz wird der Wärmetransport mit der Intensität der Turbulenz zunehmen. Für Schiffsmessungen gilt, dass die Strömung wahrscheinlich turbulent ist und die Intensität der Turbulenz immer unbekannt ist. Fasst man alles zusammen, wird erwartet, dass Unsicherheiten aufgrund der Auswirkungen von Turbulenz und der Annahme gut durchmischter Wasserproben substantiell sind und einen limitierenden Faktor darstellen können für die direkte Anwendung dieser Modelle, um historische Wassertemperatur-Messungen zu adjustieren.

Temperaturmessung in einströmendem Kühlwasser:

Der Dieselmotor eines Schiffes enthält einen separaten Kühl-Kreislauf, um das Metall von der korrosiven Wirkung von Meerwasser zu isolieren. Die Rohmessung der Temperatur des einströmenden Wassers erfolgt fast immer mit Messzylindern (typischerweise mit einer Genauigkeit von 1°C und niemals kalibriert). Dieser ist installiert zwischen der Einströmungs-Pumpe und dem Wärmetauscher. Es gibt keinen Grund, Thermometer direkt am Schiffskörper zu installieren, ohne dass Daten durch die Aufheizung durch die Maschinen verzerrt werden. Anderenfalls wäre diese Aufstellung geeigneter für Forschungszwecke.

Folgende Zufalls-Einflüsse müssen bei der Messung berücksichtigt werden:

Tiefe des einströmenden Wassers

Ausmaß der Durchmischung der Oberflächenschicht durch Wind und Sonne

Aufwühlen des Wassers durch das Schiff, auch abhängig von dessen Geschwindigkeit

Differenz zwischen der Temperatur des Wassers und im Maschinenraum

variable Temperatur im Maschinenraum

Außerdem gibt es langzeitliche, zeitvariable Systemfehler, die berücksichtigt werden müssen:

zusätzliche thermische Energie durch die Ansaugpumpe

Abnahme der Röhren-Isolierung und durch innere Ablagerungen

c. Einsatz von XBT-Sonden (Expendable Bathythermograph)

Die Sonar-Messungen und die Notwendigkeit, U-Boote vor der Entdeckung in thermischen Inversionsschichten zu bewahren, befeuerten die Entwicklung und den Einsatz von XBT-Stichproben. Die Sonden werden von Schiffen an der Wasseroberfläche und von U-Booten ausgesetzt. Temperaturdaten werden an das Schiff übermittelt mittels eines dünnen Kupferdrahtes von der Sonde, während sie langsam in die Tiefe sinkt. Die Temperaturmessung erfolgt mit einem Thermistor, Nachbehandlung und Aufzeichnung der Daten erfolgt auf dem Schiff. Die Tiefe wird errechnet aus der vergangenen Zeit und auf der Grundlage einer speziellen, vom Hersteller entwickelten Formel. Thermistoren-Messungen werden aufgezeichnet via Änderungen der Stromspannung des Signals.

Mögliche Randwert-Fehler:

Thermische Verzögerungs-Effekte gegenüber der initialen Eintauch-Temperatur durch Lagerung der Stichprobe an Bord des Schiffes

Eine von der Lagerzeit induzierte Kalibrierungs-Verschiebung

Dynamischer Stress plus Effekte der sich ändernden Temperatur mit der Tiefe in Gestalt der Änderung der el. Widerstandsfähigkeit des Drahtes mit zunehmender Tiefe

Variable thermische Verzögerungs-Effekte des Thermistors während des Versinkens

Variabilität der Oberflächentemperatur vs. Stabilität tieferer Wasserschichten

Durch Instrumente und Messverfahren induzierte Variabilität

d. Schwimmende ARGO-Bojen

Das Konzept dieser Tauchbojen ist ein cleveres Verfahren, um fast 4000 derartige Instrumente weltweit zu haben, die automatisch Wasserdaten aufzeichnen, während sie in verschiedenen Tiefen des Ozeans treiben. Periodisch tauchen sie auf und übermitteln die gespeicherten Daten, Tiefe, Salzgehalt und Temperatur-Historie via Satelliten an Bodenstationen zur Auswertung. Das oberste Ziel des ARGO-Programms ist es, fast simultane Temperaturmessungen der Flotte vorzunehmen bis zu einer Tiefe von 2500 Metern. Damit will man ein umfassendes Bild des Wärmegehaltes der Ozeane zeichnen.

Überraschenderweise sind die einzigen von den Herstellern der Bojen gelieferten Daten die hohe Präzision von 0,001°C ihres kalibrierten Thermistors. Rückfragen bei den Verantwortlichen des ARGO-Programms enthüllten, dass sie nichts von einem Systemfehler wussten, obwohl man ein Bewusstsein gegenüber einem solchen von einem so weit entwickelten wissenschaftlichen Experiment erwarten sollte. Fragen hinsichtlich verschiedener Fehlerquellen an den vorherrschenden Hersteller der ARGO-Bojen blieben unbeantwortet.

Dabei müssen folgende Randwert-Fehler evaluiert werden:

Valide zeitliche Simultanität hinsichtlich der Tiefe der Temperaturmessungen, treiben doch die Bojen mit unterschiedlicher Geschwindigkeit. Außerdem können sie zwischen unterschiedlichen Zirkulationsmustern wechseln, sowohl vertikal als auch horizontal.

Thermische Verzögerungs-Effekte

Ungültige Messungen nahe der Oberfläche werden eliminiert, unbekanntes Ausmaß der Stärke des Fehlers

Fehler bei der Übertragung von Datenpaketen an den Satelliten infolge der Bewegung der Sendeantenne durch den Wellengang

Wellen- und Gischt-Interferenz mit der hohen Frequenz 20/30 GHz IRIDIUM der Transmission von Satellitendaten

Schwächen bei der Aufzeichnung und Fehlinterpretationen der Daten

Außerdem gibt es unbekannte Fehler bzgl. Auflösung, Bearbeitung und der Aufzeichnungs-Instrumente wie etwa Rauigkeit bei der Konversion analog/digital, Auswirkungen alternder Batterien in den Bojen usw. Außerdem gibt es subtile Charakteristika zwischen verschiedenen Formen der Bojen, die vermutlich ohne detaillierte Forschungen niemals erkannt werden.

e. Fest installierte Bojen

Langfristig fest installierte Bojen weisen Schwächen auf bzgl. ihrer vertikalen Reichweite. Diese ist limitiert durch die Notwendigkeit der Verankerung und der Zeitlosigkeit von Ablesung und Aufzeichnung. Außerdem sind sie Gegenstand von Ablagerungen und Unterbrechungen der Sensor-Funktionsfähigkeit durch treibende maritime Flora. Deren Verteilung hängt von der küstennahen Verankerung ab. Dies verleiht ihnen nur begrenzten Wert für eine allgemeine Überwachung der Ozean-Temperatur.

f. Leitfähigkeit, Temperatur, Tiefen-Sonden (CTD)

Diese Sonden ermöglichen das genaueste Verfahren zur Messung der Wassertemperatur in verschiedenen Tiefen. Sie messen typischerweise Leitfähigkeit, Temperatur (meist auch Salzgehalt) und Tiefe zusammen. Sie werden von stationären Forschungsschiffen ausgesetzt, welche mit einem Bordkran ausgerüstet sind, um die Sonden zu versenken und zu bergen. Präzise thermische Thermistoren-Messungen in bekannten Tiefen werden in Echtzeit via Kabel an die Schiffe übertragen. Diese Sondenmessungen werden oftmals herangezogen, um andere Instrumente zu kalibrieren, wie etwa XBT und ARGO. Aber die hohen operationellen Kosten und die Feinheit [sophistication] als Forschungsinstrument verhindern deren Gebrauch auf breiter Front.

4. Signifikante Auswirkungen von Fehlern bei den verschiedenen Verfahren zu Temperaturmessungen in den Ozeanen

Hier versuchen wir, typische operationelle Fehler instrumenteller Verzerrungen in historischen Aufzeichnungen der Ozean-Wassertemperatur abzuschätzen.

a. Das Eimer-Verfahren

In der Studie Corrections of instrumental biases in historical sea surface temperature data’ Q.J.R. Metereol. Soc. 121 (1995) haben Folland et al. versucht, den Bias bei dem Eimer-Verfahren zu quantifizieren. In der Studie geht es um historische Temperatur-Aufzeichnungen und Variationen der verschiedenen Eimertypen. Außerdem ist es von Bedeutung, dass kein maritimes Unterfangen jemals irgendeiner Art von Protokoll gefolgt ist bei der Ermittlung derartiger Daten. Die Autoren dieses Reports führen eine sehr detaillierte Wärmetransfer-Analyse durch und vergleichen die Ergebnisse mit denen einiger Tests in Windkanälen (nicht isolierte Eimer kühlen sich um 0,41°C bis 0,46°C ab). Bei der Datenverarbeitung waren viele globale Variablen im Spiel ebenso wie einige Messungen in einströmendem Kühlwasser. Die Korrekturen von Folland betragen + 0,58°C bis 0,67°C bei nicht isolierten Eimern sowie + 0,1°C bis 0,15°C bei Holzeimern.

Des Weiteren stellen Folland et al. (1995) fest: „Die resultierenden Temperatur-Korrekturen der global und jahreszeitlich gemittelten Wassertemperatur nehmen zu von 0,11°C im Jahre 1856 auf 0,42°C im Jahre 1940“.

Es ist unklar, warum die Korrekturen im 19.Jahrhundert substantiell geringer sein sollen als im 20. Jahrhundert. Jedoch könnte dies eine Folge davon sein, dass früher vorherrschend Holzeimer zur Messung verwendet wurden (die viel besser isoliert sind). Es ist auch verwirrend, wie diese Zahlen korrelieren mit der allgemeinen Feststellung von Thompson, dass jüngste SSTs korrigiert werden sollten mit „bis zu ~0,1°C“. Was ist mit der Hinzunahme der Zahl 0,42 Grad?

Bei Berücksichtigung eines Systemfehlers – siehe Abschnitt 3b – sind die variablen Faktoren der vorherrschenden Größenordnung täglicher und jahreszeitlicher Natur sowie abhängig von Sonnenschein, Luftkühlung, dem Verhältnis der Temperatur von Sprühwasser und der Luft sowie einem festen Fehler der Thermometer-Genauigkeit von ±0,5°C, im besten Falle. Bedeutsam ist auch, dass die Eimerfüllung aus Wasser besteht, das nicht tiefer als einen halben Meter unter der Wasseroberfläche geschöpft worden ist, so dass folglich diese Wasserschicht erheblich mit dem Tagesgang der Temperatur variiert.

Tabatha (1978) sagt über Messungen auf einem kanadischen Forschungsschiff: „Temperaturen im mit Eimern geschöpften Wasser stellten sich um 0,1°C zum Warmen hin verzerrt heraus. Die Wassertemperatur in einströmendem Kühlwasser war um eine Größenordnung mehr gestreut als bei anderen Verfahren und um 0,3°C zum Warmen hin verzerrt“. Folglich ergibt sich aus beiden Verfahren ein gemessener Warm-Bias, d. h. Korrekturfaktoren müssten negativ sein, sogar beim Eimer-Verfahren, was das Gegenteil der Folland-Zahlen ist.

Wo beginnt man mit der Abschätzung der Randwert-Fehler? Es scheint fast unmöglich, ein valides Mittelungs-Szenario zu simulieren. Zur Illustration wollen wir eine Fehlerberechnung durchführen, und zwar bzgl. einer spezifischen Temperatur der Wasseroberfläche mit einem nicht isolierten Eimer.

Luftkühlung 0,5 Grad (zufällig)

Transfer an Bord 0,05 Grad (zufällig)

Thermometer-Genauigkeit 1,0 Grad (fest)

Ablesen und Parallaxe 0,2 Grad (zufällig)

Fehler e = 1,0 + (0,52 + 0,052 + 0,22)½ = 1,54 Grad oder 51 mal die gewünschte Genauigkeit von 0,03 Grad (siehe auch Abschnitt 2.0)

b. Messungen in einströmendem Kühlwasser

Saur 1963 kommt zu dem Ergebnis: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen im Vergleich zu Meeresoberflächen-Temperaturen wird mit einem Vertrauensintervall von 95% geschätzt mit 0,67°C ±0,3°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung wird geschätzt zu 0,9°C … Der Schiffs-Bias (der mittlere Bias der Injektions-Temperatur eines bestimmten Schiffes) bewegt sich zwischen -0,3°C und 1,7°C unter 12 Schiffen“.

Fehler der SST einströmenden Kühlwassers hängen stark ab von den Betriebsbedingungen im Maschinenraum (Tauber 1969).

James and Fox (1972) weisen nach, dass Einströmen in einer Tiefe von 7 Metern oder weniger einen Bias von 0,2°C zeigte. Einströmen in größeren Tiefen zeitigte einen Bias von 0,6°C.

Walden (1966) fasst Aufzeichnungen von vielen Schiffen als um 0,3°C zu warm zusammen. Allerdings ist zweifelhaft, dass eine akkurate Instrumentierung verwendet wurde, um die Ablesungen zu kalibrieren. Daher ist seine Zahl von 0,3°C möglicherweise grob abgeleitet mit einem shipboard standard ½ oder mit auf 1 Grad genauen Thermometern.

Hier folgt eine Fehlerberechnung einer spezifischen Wassertemperatur am Einströmpunkt des Schiffsrumpfes:

Thermometer-Genauigkeit 1,0 Grad (fest)

Umgebender Maschinenraum Delta 0,5 Grad (zufällig)

Input der Pump-Energie 0,1 Grad (fest)

Gesamtfehler 1,6°C oder 53 mal die gewünschte Genauigkeit von 0,03 Grad.

Es gibt einen wesentlichen Unterschied zwischen der Messung in einströmendem Kühlwasser und Eimermessungen, der auch zu einer großen Differenz führt, nämlich die Messung viel tiefer im Wasser, in der Regel mehrere Meter unter der Oberfläche. Dieses Verfahren sorgt für kühlere und viel stabilere Temperaturverhältnisse als die Eimermessungen mit dem Oberflächenwasser. Allerdings übt auch die Temperatur des Maschinenraums einen starken Einfluss aus. Viele Messungen werden nur in ganzen Grad angegeben, der üblichen Thermometer-Auflösung.

Aber noch einmal: der einzige fest gegebene Fehler ist die Thermometer-Genauigkeit von einem Grad, ebenso wie der Wärmeunterschied um die Pumpe. Die variablen Fehler können auf größeren Schiffen von höherer Größenordnung sein und sind schwierig zu verallgemeinern.

Diese große Bandbreite von Variationen macht die Messung in einströmendem Kühlwasser fast unmöglich zu validieren. Außerdem erfolgte die Messung zu einer Zeit, als die auf Forschungen beruhende Kalibrierung noch kaum praktisch durchgeführt worden war.

c. XBT-Sonden

Lockheed-Martin (Sippican) stellt verschiedene Versionen her, und man wirbt mit einer Temperatur-Genauigkeit von ±0,1°C und einer System-Genauigkeit von ±0,2°C. Aiken (1998) berechnete einen Fehler von +0,5°C, und im Jahre 2007 stellte Gouretski einen mittleren Bias von +0,2°C bis +0,4°C fest. Die Forschungsgemeinschaft impliziert auch Variationen der Genauigkeit mit unterschiedlicher Daten-Herkunft und Aufzeichnungs-Instrumenten, und sie fordert Kalibrierungen mittels paralleler CTD-Sonden. Es gibt eine signifikante Varianz bei der Korrelation Tiefe ↔ Temperatur, über welche die Forscher immer noch Workshops abhalten, um diese Korrelation näher zu erfassen.

Wir können hinsichtlich des Gesamtfehlers nur grobe Abschätzungen vornehmen. Angesichts des vom Hersteller angegebenen Systemfehlers von 0,2 Grad und der oben beschriebenen Bandbreite von Fehlerquellen können wir einen Fehler von, sagen wir mal, 0,4°C ermitteln, was das Dreizehnfache der gewünschten Fehlerquote von 0,03 Grad ist.

d.ARGO-Treibbojen

Der hauptsächliche, in den USA ansässige Hersteller von APEX Teledyne reklamiert eine Genauigkeit von ±0,001°C, welche im Labor kalibriert worden ist (auf 0,002°C herabgestuft mit der Drift). Sie haben diese Zahl bestätigt, nachdem sie einige Stichproben nach vielen Betriebsjahren gezogen haben. Allerdings wird keine System-Genauigkeit angegeben, und der Hersteller gibt auf diesbezügliche Nachfragen keine Antwort. Die Kommunikation des Autors mit dem Büro des ARGO-Programms enthüllte, dass sie die System-Genauigkeit gar nicht kennen. Dies bedeutet, dass sie um die Genauigkeit der Thermistoren wissen, aber sonst nichts weiter. Der Seabird Scientific SBE Temperatur/Salzgehalt-Sensor kam in fast allen Stichproben zur Anwendung, aber das Unternehmen gibt den Fehlerbeitrag auch auf schriftliche Nachfragen via E-Mail nicht an. Nichts ist bekannt hinsichtlich der Fehler bei der Übertragung zu Satelliten oder der Genauigkeit bei der Aufbereitung der Daten an Land.

Hadfield (2007) berichtet von der Querung eines Forschungsschiffes auf dem 36. Breitengrad mit CTD-Messungen. Diese Daten hat man verglichen mit Temperaturdaten der ARGO-Bojen beiderseits der Schiffsroute, und sie sind innerhalb von 30 Tagen und manchmal auch mehr registriert worden. Allgemein stimmen die Daten überein auf 0,6°C RMS und einem Differential von 0,4°C östlich und 2,0°C westlich. Diese Messungen beziehen sich nicht auf die Genauigkeit der Bojen selbst, sondern auf die begrenzte Brauchbarkeit der ARGO-Daten, d. h. der Zeitgleichheit und geographischen Stelle der Temperaturmessungen im gesamten Ozean. Diese Unsicherheit deutet auf signifikante Grenzen bei der Berechnung des ozeanischen Wärmegehaltes, was doch der eigentliche Grund für das ARGO-Programm war.

Das ARGO-Qualitäts-Manual für die CTD-Daten und diejenigen auf der Schiffsroute ebnen den Weg für möglicherweise schlechte Daten. Die Temperatur-Verschiebung zwischen zwei mittleren Werten beträgt maximal 0,3 Grad als Kriterium, das Mittel 0,02 Grad und das Minimum 0,001 Grad.

Nimmt man einen Fehlergehalt der ARGO-Messungen an, bedeutet das mit Sicherheit einen viel höheren Wert als den vom Hersteller reklamierte Wert von 0,002 Grad.

Versuchen wir es also einmal:

Zugeordneter Systemfehler 0,01 Grad (vermutlich fest)

Fehler des Datenloggers und granularity [?] 0,01 (fest)

Datenübertragung 0,05 (zufällig)

Ground based data granularity 0,05 (fest)

Gesamtfehler 0,12 Grad, also das Vierfache der gewünschten Genauigkeit von 0,03 Grad.

Allerdings variiert die Hadfield-Korrelation zu CTD-Messungen entlang einer Schiffsroute bis zu 2 Grad, was der zeitlichen und geographischen Ausdehnung geschuldet ist. Aber auch Meeresströme und jahreszeitliche thermale Änderungen zusätzlich zu den inhärenten Bojen-Fehlern spielen eine Rolle.

Die NASA Willis 2003/05-Abkühlungsperiode

Dieses Thema wird im Abschnitt 5 ,Zusammenfassung‘ näher beleuchtet.

Im Jahre 2006 veröffentlichte Willis eine Studie, welche eine kurze Abkühlungsperiode zeigte, und zwar auf der Grundlage von Profilen der ARGO-Bojen:

Forscher fanden heraus, dass die mittlere Temperatur der oberen Ozeanschichten von 1993 bis 2003 um 0,09°C gestiegen und dann von 2003 bis 2005 wieder um 0,03°C gesunken ist. Der jüngste Rückgang ist in etwa gleich einem Fünftel der Wärmezunahme durch den Ozean im Zeitraum 1955 bis 2003.

Die Korrektur der Studie von 2007 stellt diesen offensichtlichen globalen Abkühlungstrend der Jahre 2003/2004 in Frage, indem die spezifisch falsch programmierten (vom Druck abhängigen) ARGO-Bojen ausgesondert und mit früheren, zum Warmen verzerrten XBT-Daten korreliert wurden. Damit, so hieß es, war die Größenordnung dieses Abkühlungs-Ereignisses substantiell verringert.

Im Mittelpunkt von Willis‘ Arbeit standen die Messung des ozeanischen Wärmegehaltes und die Einflüsse auf den Meeresspiegel. Hier folgen einige Auszüge aus dieser Studie, zunächst ohne und dann mit den angebrachten Korrekturen.

Vor der Korrektur:

Die mittlere Unsicherheit wird angegeben mit etwa 0,01°C in einer gegebenen Tiefe. Das Abkühlungs-Signal verteilt sich über die gesamte Wassersäule, wobei in den meisten Tiefen Abkühlung festgestellt wurde. Eine geringe Abkühlung wurde an der Oberfläche beobachtet, viel weniger als die Abkühlung in größerer Tiefe. Diese Abkühlung der Oberfläche von 2003 bis 2005 ist konsistent mit den globalen SST-Messungen (z. B. hier). Die stärkste Abkühlung ereignete sich in einer Tiefe von 400 m, aber auch in einer Tiefe von 750 m wurde noch substantielle Abkühlung beobachtet. Diese Verteilung reflektiert die komplizierte Überlagerung regionaler Erwärmungs- und Abkühlungs-Verteilungen mit unterschiedlicher Tiefen-Abhängigkeit ebenso wie den Einfluss von Änderungen der ozeanischen Zirkulation und den damit verbundenen Änderungen der Thermokline.

Das Abkühlungssignal ist in 750 m immer noch ausgeprägt und scheint sich in noch größere Tiefen zu erstrecken (Abbildung 4). Tatsächlich ergeben sich aus vorläufigen Schätzungen auf der Grundlage der ARGO-Daten eine zusätzliche Abkühlung in Tiefen zwischen 750 und 1400 m.

Nach der Korrektur:

eine Schwäche, welche dazu führte, dass Temperatur- und Salzgehalts-Werte in Verbindung standen mit unrichtigen Werten des Drucks. Die Größe der Druckabweichung war abhängig vom Bojen-Typ und variierte von Profil zu Profil über eine Bandbreite von 2 bis 5 db nahe der Oberfläche bis zu 10 bis 50 db in Tiefen unterhalb etwa 400 m. Fast alle der WHOI FSI-Bojen (287 Instrumente) waren von Fehlern dieser Art betroffen. Die Hauptmasse dieser Bojen wurde im Atlantik platziert, wo die unechte Abkühlung entdeckt worden war. Der Kalt-Bias ist im Mittel über das betroffene Gebiet größer als -0,5°C in Tiefen zwischen 400 und 700 m.

Der hier präsentierte 2%-Fehler bzgl. der Tiefe steht in guter Übereinstimmung mit ihren Ergebnisse für den Zeitraum. Der Grund für die offensichtliche Abkühlung in der Schätzung, welche XBT- und ARGO-Daten kombiniert (Abbildung 4, dicke gestrichelte Linie) ist das zunehmende Verhältnis zwischen ARGO- und XBT-Messungen zwischen 2003 und 2006. Das sich ändernde Verhältnis verursacht die Abkühlung in der Schätzung, sowie sie sich von den warm-verzerrten XBT-Daten entfernt und sich den neutralere ARGO-Werten nähert.

Systematische Druck-Fehler wurden hinsichtlich der Echtzeit-Temperatur und des Salzgehaltes entdeckt bei einer geringen Anzahl von ARGO-Bojen. Diese Fehler hatten ihre Ursache in Problemen bei der Bearbeitung der ARGO-Daten, und korrigierte Versionen vieler der betroffenen Profile wurden vom Hersteller der Bojen geliefert.

Hier werden Fehler in den fall-rate-Gleichungen als primäre Ursache für den Warm-Bias der XBT-Daten angesehen. Im untersuchten Zeitraum stellte sich heraus, dass die XBT-Stichproben und die Zuordnung der Temperatur zu den jeweiligen Tiefen um etwa 2% zum zu Tiefen verschoben waren.

Man beachte, dass Willis und seine Mitautoren den Wärmegehalt der oberen 750 Meter abschätzten. In dieser Zone befinden sich etwa 20% des globalen Ozeanwassers.

Des Weiteren zeigt die Abbildung 2 in Willis‘ Studie, dass eine der eliminierten ARGO-Bojen das thermische Tiefen-Profil den Vergleich zeigt zwischen korrekt und fehlerhaft.

Abbildung 4: Links: Temperatur-Anomalie im Vergleich zur Tiefe relativ zu den WGHC für WHOI-Bojen mit unrichtigen Druckwerten (blaue Linie) und Nicht-WHOI-Bojen aus dem gleichen Gebiet (rote Linie). Die Daten beschränken sich auf den Atlantik zwischen 50°N und 50°S bzw. den Zeitraum vom 1. Januar 2003 bis zum 30. Juni 2007. Rechts: Auswirkung der Korrektur einer einzelnen WHOI FSI-Boje im Südatlantik. Aus Willis 2007.

Mittelt man den Fehler in spezifischen Tiefen, erhält man ein Differential von 0,15 Grad in einer Tiefe zwischen etwa 350 und 1100 m. Diese Zahl differiert von dem Kalt-Bias um -0,5°C, wie oben festgestellt, obwohl dieser nur zwischen 400 und 700 m Tiefe definiert war.

All diese Erklärungen von Willis sind sehr verworren und lassen kaum Vertrauen aufkommen hinsichtlich der Genauigkeit aller thermischen ARGO-Messungen.

5. Beobachtungen und Zusammenfassung

5.1 Ozean-Temperaturaufzeichnungen vor 1960/70

Versucht man, die Aufzeichnung der Ozean-Erwärmung und die Trendlinien während der Zeiten mit Eimermessungen und früheren Messungen in einströmendem Kühlwasser zu extrahieren, scheint das ein aussichtsloses Unterfangen zu sein wegen der großen systematischen und zufälligen Datenfehler.

Die Eimermessungen wurden für meteorologische Zwecke durchgeführt, und:

a. ohne Qualitäts-Protokolle und mit möglicherweise nur marginaler persönlicher Qualifikation,
b. durch viele Nationen mit vielen Kriegs- und Zivilschiffen,
c. auf separaten Ozeanen und oftmals in geschlossenen Handelsrouten
d. aufgenommenem Wasser nur von einer dünnen Oberflächenschicht
e. mit einer Instrumentierung, die viel gröber war als die gewünschte Qualität
f. Gegenstand erheblicher physikalischer Stichproben-Variationen und umweltlicher Störungen.
Die Temperaturdaten in einströmendem Kühlwasser waren genauso grob, und zwar weil
a. sie aus einer anderen Tiefe stammen,
b. sie stabiler waren als die vom Tagesgang beeinflussten Messungen in der obersten Wasserschicht.

Beobachtung Nr. 1:

Während des Wechsels der primären Verfahren zur Messung der Ozean-Temperaturen scheint es logisch, eine Überraschung in den Temperaturaufzeichnungen während des 2. Weltkrieges zu finden infolge von Änderungen der Temperatur-Datengewinnung. Allerdings sieht das Auffinden eines spezifischen Korrekturfaktors der Daten mehr wie Spekulation aus, weil die beiden historischen Messverfahren zu unterschiedlich sind hinsichtlich ihrer Charakteristika und hinsichtlich dessen, was sie messen. Allerdings muss die Tatsache des Einsetzens einer rapiden Abkühlung 1945/46 nach wie vor eingeräumt werden, weil es während der Folgejahre kühl blieb. Dann begann Mitte der siebziger Jahre wieder eine abrupte Erwärmung, wie die Graphik in Abschnitt 1 so ausgeprägt zeigt.

5.2 Weitere XBT- und ARGO-Messungen in jüngerer Zeit:

Obwohl die XBT-Aufzeichnung nur von begrenzter Genauigkeit ist, wie es die vom Hersteller genannte Systemgenauigkeit von ±0,2 Grad spiegelt, müssen deren Vor- und Nachteile berücksichtigt werden, vor allem hinsichtlich der ARGO-Aufzeichnungen.

XBT-Daten:

a. Sie reichen zurück bis in die sechziger Jahre mit umfangreichen Aufzeichnungen
b. Eine fortgesetzte Kalibrierung mit CBT-Messungen ist erforderlich, weil die Tiefenformeln zur Berechnung nicht konsistent genau sind.
c. XBT-Daten stehen fest hinsichtlich Gleichzeitigkeit und geographischem Ursprung, was statistische Vergleiche ermöglicht
d. Erkannter Bias der Tiefen-Messungen, welcher der Temperaturmessung zugeordnet werden kann
ARGO-Daten:
a. brauchbare Quantität und Verteilung von Bojen gibt es erst seit etwa seit dem Jahr 2003
b. Die Datengenauigkeit wird als extrem hoch angegeben, jedoch ohne bekannte System-Genauigkeit
c. Die Datensammlung kann nur zu Zeitpunkten der Transmission via Satellit erfolgen. Die dazwischen liegende Richtung der Meeresströme und die thermische Durchmischung während der Bojen-Messzyklen vergrößern die Unsicherheiten.
d. Die Kalibrierung mittels CTD-Messungen wird behindert durch die geographische und zeitliche Trennung. Das hat zu Temperatur-Diskrepanzen von drei Größenordnungen geführt, also 2,0 Grad (Hadfield 2007) bzw. 0,002 Grad (Hersteller-Angaben).
e. Programmierfehler haben historisch zu falschen Tiefen-Korrelationen geführt.
f. Unbekannte Datenfehler bei der Transmission zu Satelliten, möglicherweise mit dem 20/30 GHz-Häufigkeitssignal durch Wellengang, Gischt und starkem Regen.

Beobachtung Nr. 2:

Die ARGO-Daten müssen innerhalb ihrer Limitierungen betrachtet werden, trotz der ursprünglichen Absicht, eine präzise Karte des ozeanischen Wärmegehaltes zu erstellen. Die ARGO-Gemeinschaft weiß nichts über den Systemfehler bei der Messung der Temperatur durch die Bojen.

Die Forschungen von Willis (NASA) 2003/04 bzgl. der Ozean-Abkühlung lassen viele Fragen offen:

a. Ist es zulässig, die Validität der von ARGO gemessenen Abkühlung zu erweitern allein durch einen Teil des Atlantiks als Datenbasis der gesamten globalen Ozeane?

b. Ist der Schluss zulässig, dass die Korrektur eines kleinen Anteils irriger Tiefen-Temperaturprofile über eine geringe vertikale Erstreckung einen ausreichenden thermischen Einfluss auf die Masse aller Ozeane ausübt, um etwa eine globale Abkühlung zu propagieren oder nicht?

c. Willis argumentiert, dass das Aufkommen präziser ARGO-Messungen um das Jahr 2003 in Bezug auf die frühere Aufzeichnung der warm-verzerrten XBT-Daten das offensichtliche Einsetzen der Abkühlung ausgelöst hat. Allerdings war dieser XBT-Warm-Bias zu jener Zeit gut bekannt. Hätte er diesen Bias nicht berücksichtigen können, wenn er Vergleiche zwischen der Vor-ARGO-Zeit und der Nach-ARGO-Zeit durchführte?

d. Warum unterscheidet sich der von Willis gegebene Bias von -0,5°C so signifikant von dem 0,15 Grad-Differential, den man in seiner Graphik erkennt?

Beobachtung Nr. 3:

Das Forschungsobjekt von Willis et al. scheint ein Beispiel zu sein für eine unangemessene Verquickung von zwei unterschiedlichen generischen Arten von Daten (XBT und ARGO). Er kommt zu überraschenden Schlussfolgerungen:

a. Die Aufzeichnung vor 2003 sollte bzgl. des offensichtlichen Einsetzens von Abkühlung vorsichtig bewertet werden, und

b. diese Aufzeichnung vor 2003 sollte immer noch eine valide Aufzeichnung sein zur Berechnung von Trendlinien des ozeanischen Wärmegehaltes.

Willis: „… die Abkühlung von 2003 bis 2005 ist konsistent mit den globalen SST-Produkten“. Diese Feststellung widerspricht der späteren Schlussfolgerung, dass die Abkühlung durch die Ergebnisse der Korrekturen 2007 hinfällig war.

Außerdem ist Willis‘ Manipulation der Bojen-Metadaten zusammen mit den XBT-Daten verwirrend genug, um seine Schlussfolgerung in der Korrektur-Studie 2007 als fraglich erscheinen zu lassen.

Zusammenfassung der Beobachtungen:

Es scheint, als ob die historischen Aufzeichnungen der Messungen mit ,Eimern‘ und in ,einströmendem Kühlwasser‘ als anekdotisch betrachtet werden müssen, als historisch und insgesamt grob, anstatt als wissenschaftliche Grundlage zu dienen für Trends der Erwärmung der Ozeane. Mit dem Aufkommen von XBT- und ARGO-Stichproben erscheinen die Trendlinien genauer, aber sie sind oftmals versteckt hinter Systemfehlern der Instrumente.

Ein Versuch, den Ozean-Temperaturtrend zu ermitteln, muss die Größenordnung von Zufallsfehlern berücksichtigen im Verhältnis zu bekannten Systemfehlern. Falls man versucht, eine Trendlinie in einem Umfeld mit vielen Zufallsfehlern zu finden, kann sich der Mittelwert selbst am Rande der Fehlerbandbreite befinden und nicht in der Mitte.

Die Ozeantemperatur sollte bis auf 0,03°C genau ermittelt werden. Allerdings gehen die Systemfehler oft über diese Präzision hinaus, und zwar bis zu drei Größenordnungen!

Falls die Forschung von Willis symptomatisch ist für die Gemeinschaft der Meeresforscher insgesamt, kann der vermeintlichen wissenschaftlichen erforderlichen Sorgfalt nicht vertraut werden

Mit der intensiven Konzentration auf statistische Manipulation der Metadaten und dem, was auch nur auf den Computer-Bildschirmen erscheint, scheinen es viele Wissenschaftler zu vermeiden, gebührende Umsicht walten zu lassen hinsichtlich der Datenquellen bzgl. Genauigkeit und Relevanz. Oftmals gibt es einfach nicht genügend Hintergrundwissen hinsichtlich der Genauigkeit der Rohdaten, um realistische Fehlerabschätzungen vornehmen zu können, und auch nicht, um irgendwelche Schlüsse zu ziehen, ob die Daten für das, was man machen will, überhaupt geeignet sind.

Und außerdem: Die Grundlage statistischer Mittelbildung bedeutet die Mittelung ein und derselben Sache. Die Mittelung von Ozean-Temperaturdaten über die Zeit kann nicht mit Mittelwerten durchgeführt werden, welche aus breit gestreuten Datenquellen, Instrumenten und Verfahren hervorgehen. Deren individuelle Herkunft muss bekannt sein und berücksichtigt werden!

Zum Schluss noch ein Vorschlag:

Als er den Temperatursprung während des 2. Weltkrieges zwischen Eimermessungen und solchen in einströmendem Kühlwasser identifizierte, hat Thompson diese korreliert mit den NMAT-Daten, d. h. mit nächtlichen Temperaturen bei jedem der beiden Messverfahren. NMAT kann eine Möglichkeit sein – vielleicht bis zu einem bestimmten Grad – die verschiedenen Aufzeichnungen seit dem 19. Jahrhundert zu validieren und in einen Zusammenhang zu bringen mit zukünftiger Satelliten-Überwachung.

Dies kann erreicht werden, indem man Forschungsschiffe in kalte, gemäßigte und warme Ozeangebiete entsendet, wo sie gleichzeitig repräsentative Eimermessungen und in einströmendem Kühlwasser durchführen sowie eine Handvoll XBT- und ARGO-Sonden einsetzen, während CBT-Tests gleichzeitig erfolgen. Und alle diese Prozesse müssen korreliert werden unter ähnlichen nächtlichen Bedingungen und mit lokalisierten Satellitenmessungen. Mit dieser Kreuz-Kalibrierung könnte man die historischen Aufzeichnungen zurück verfolgen und die Temperaturdifferenzen berechnen zu ihren nächtlichen Verhältnissen, wo ein solches Zusammenpassen gefunden werden kann. Auf diese Weise können NMATs dazu führen, alte, derzeitige und zukünftige Ozean-Aufzeichnungen zu validieren. Damit können Trends der Vergangenheit und der Zukunft genauer abgeschätzt werden. Die Finanzierung eines solchen Projektes sollte leicht möglich sein, weil es die Validität vieler Ozean-Aufzeichnungen korrelieren und zementieren würde, in Vergangenheit und Zukunft.

Link: https://wattsupwiththat.com/2018/07/11/bucket-list-historic-global-ocean-temperature-data-the-missing-pedigree-is-a-comedy-of-errors/
Übersetzt von Chris Frey EIKE




Stromknappheit in Kalifornien aufgrund hoher Belastung durch Klimaanlagen erwartet

Die nordamerikanische Electric Reliability Corporation (NERC) warnte im Mai davor, dass Kalifornien „einem erheblichen Risiko ausgesetzt sei, Bedingungen zu erleben, die zu einem Mangel an Betriebsreserven führen könnten“.
Der erwartete Strombedarf wird in Kalifornien die verfügbare Erzeugungskapazität am kommenden Dienstag um etwa 5.000 Megawatt übertreffen, so der California Independent System Operator (CAISO) [Netzbetreiber].

Quelle: California Independent System Operator

Warum der Mangel an Energiekapazität? CAISO geht davon aus, dass die Nachfrage nach Klimaanlagen während der Hitzewelle das Angebot aufgrund „reduzierter Stromimporte, knapper Erdgaslieferungen“ und hohen Flächenbrandrisiken überfordern wird.
Der Netzbetreiber hat am Montag eine flexible Warnung an die Kunden ausgegeben und damit begonnen, alle verfügbaren Erzeugungskapazitäten zu mobilisieren. Aber das ist nicht genug, und CAISO fordert Bewohner und Unternehmen auf, ihren Stromverbrauch zu reduzieren, um „sich ausbreitende Stromausfälle“ zu verhindern.
Genau davor warnte NERC, basierend auf der eigenen Einschätzung von CAISO Anfang dieses Jahres. NERC fand ein erhöhtes Risiko von Stromausfällen als „Folge niedrigerer Wasserstände in den Wasserkraftwerken und der Stilllegung von 789 MW abrufbarer Energie aus Erdgaskraftwerken, die in früheren Sommern verfügbar gewesen war, um Hochlastbedingungen zu erfüllen.“

„Beschränkungen von Erdgas und Pipeline-Ausfälle könnten diese Bedingungen verschlimmern„, stellte NERC fest.

(RELATED: New Study Claims Global Warming Will Cause Thousands More To Commit Suicide)

[Neue Studie behauptet, dass die globale Erwärmung Tausende mehr dazu bringen wird, Selbstmord zu begehen –
Kurzfassung:  … wie viel Selbstmorde (!) in „normalen“ Monaten , zum Vergleich., wie viel in heißen Monaten, dann Hochrechnung mit der Temperaturdifferenz – ergibt xx Todesfälle (je plus 1° um + 0,7% in USA; 2,1% in Mex.  Es gab aber auch Gegenden, wo die Anzahl der Selbstmorde zurückging, der Übersetzer]

Zehntausende von Kaliforniern bekamen keine Energie, als eine Hitzewelle Anfang Juli die Temperaturen in die Höhe trieb und neue Rekorde in der Gegend von Los Angeles aufzeichnete. Der Einsatz von Klimaanlagen belastet das Stromnetz zu stark und überlastet die Stromverteilung.
CAISO forderte die Kunden auf, „vor allem am späten Nachmittag und Abend Strom zu sparen, wenn die Klimaanlagen in der Regel am stärksten genutzt werden“ , das gilt für Dienstag und Mittwoch, wenn die Temperaturen in Südkalifornien voraussichtlich dreistellig sind. [Bilder mit Link]

View image on Twitter
View image on Twitter

Quelle @Ryan Maue ; weathermodels.com; Link : Nutzung auf nicht-kommerziellen Webseiten erlaubt

 Am Dienstag wird in Palm Springs, Kalifornien, eine Temperatur von 50° C erwartet  – ein Ort, an dem die extremsten Temperaturen in den Südwesten der USA unter dem #heatdome beobachtet werden können. Die Höchststände in der Region liegen zwischen 5° – 7° höher als normal  für Mitte Juli und werden Tageshöchststände setzen oder erreichen – einschließlich Phoenix bei 46°C

Diesen Thread anzeigen

Stattdessen reagieren Medien reflexartig als Echo von Aktivisten, die sagen, jedes Feuer sei ein Beweis für den globalen Klimawandel. Das ist große Propaganda, aber es ist keine Wissenschaft. Es ist falsch. Erklären Sie einfach genau, was vor sich geht … Menschen werden Wissenschaftlern / Medien mehr vertrauen, wenn diese ehrlich sind.
Erschienen auf The Daily Caller am 24.07.2018
Übersetzt durch Andreas Demmig
http://dailycaller.com/2018/07/24/california-heat-wave-electricity-use/