Erwärmung der Ozeane: nicht sehr stark und zur falschen Zeit

Aus Datensätzen der Wassertemperatur und der Temperatur auf dem Festland wird klar, dass die Temperatur auf der Erdoberfläche seit dem Beginn der Ära instrumenteller Messungen (nach 1860) zugenommen hat. Allerdings gab es dabei ein Problem mit den Messungen der Ozeantemperaturen, weil diese schwieriger zu messen und zu quantifizieren sind und außerdem nicht so weit zurück reichen wie Messungen an Land. In einem Versuch zur Lösung dieses Problems vergleichen Viktor Gouretski und Kollegen an der Universität Hamburg Zeitreihen historischer globaler Temperaturdaten für die oberen 20 Meter des Ozeans basierend auf der letzten Aktualisierung eines historischen Datensatzes des hydrographischen Profils.

Abbildung 1 zeigt, dass die Daten der Wassertemperatur seit 1900 insgesamt eine Erwärmung zeigen, was auch zu erwarten war. Es gibt einen Anstieg der Temperatur zwischen 1910 und 1940 – genauso steil wie irgendwo in den Daten –, der eine lange Zeit ohne wesentliche Änderung folgt bis Mitte der achtziger Jahre, dann wieder einen Anstieg und nach 2000 einen Stillstand.
Die Periode ohne wesentliche Änderung zwischen 1940 und 1980 ist sehr interessant. Wenn dieses Phänomen nur an Land betrachtet oder bei kombinierten Daten an Land und zu Wasser betrachtet wird, wird es oft der Verschmutzung durch Aerosole zugeschrieben, die die Sonnenstrahlung ins All reflektieren und den Planeten abkühlen (obwohl es problematisch ist, wie genau ein solches Szenario eine in etwa konstante Temperatur zur Folge hat angesichts des Antriebs durch Treibhausgase). Da die Verschmutzung mit Aerosolen häufig ein regionales Phänomen ist, erscheint es eigenartig, den Stillstand der globalen Wassertemperatur damit zu erklären.
Unter der Oberfläche
Die Forscher haben auch Aufzeichnungen der Temperaturänderung in den oberen 400 m der Ozeane bis zurück zum Jahr 1900 ausgeweitet – also auf einen Zeitpunkt etwa fünfzig Jahre früher als bei zuvor durchgeführten Analysen. Alles in allem kommen sie zu der Schlussfolgerung, dass die Temperaturänderung der oberen 400 m durch zwei Perioden der Temperaturzunahme charakterisiert wird, nämlich zwischen 1900 und 1940-45 sowie zwischen 1970 und 2003, jeweils unterbrochen durch eine Periode ohne wesentliche Änderung. Dies ähnelt bemerkenswert den Daten an der Oberfläche.
Schaut man auf ihre Daten der oberen 400 m, wird offensichtlich, dass das meiste der Erwärmung in dieser Region vor 1940 stattgefunden hat, und zwar mit dem größten Gradienten in dem Datensatz. Zwischen 1940 und 1990 gibt es eigentlich kaum Beweise für irgendeine Änderung, dann eine Zunahme und nach 2000 einen Stillstand. Nur während zehn der letzten sechzig Jahre zeigte die Temperatur der oberen 400 m eine Zunahme!

Interessanterweise schließen die Autoren daraus: „Diese Karten zeigen, dass die erste Dekade des 21. Jahrhunderts (2001 bis 2010) nicht einheitlich wärmer war als frühere Dekaden. Etwa vor 1920 war der globale Ozean fast überall kälter als in der Referenzdekade 2001 bis 2010. Nach 1920 war es in vielen Regionen der globalen Ozeane wärmer als in der Referenzdekade.
Dekadische mittlere Wassertemperaturen (SST) und Anomalien der oberen 20 m, berechnet relativ zur Referenzdekade 2001 bis 2010 beweisen die allgemeine Erwärmung der globalen Ozeane seit 1900. Weite Gebiete des Ozeans haben sich jedoch seit den neunziger Jahren abgekühlt. Während die Abkühlung im tropischen Ostpazifik mit häufigen La Nina-Ereignissen zusammenhängt, ist der Grund der Abkühlung in den südlichen Ozeanen weiterhin unbekannt.“.
Die meiste Erwärmung unterhalb der Wasseroberfläche fand vor 1940 statt. Die erste Dekade des 21. Jahrhunderts war nicht einheitlich wärmer als frühere Dekaden. Dies sind interessante Fakten und sollten bei der Diskussion über die Art und Weise, wie sich unsere Ozeane erwärmen, eine Rolle spielen.
Feedback: david.whitehouse@thegwpf.org
Link: http://www.thegwpf.org/ocean-warms-vey-wrong-time/
Übersetzt von Chris Frey EIKE




Zwangsbewirtschaftungen und die Energiewende

Aus der Kriegswirtschaft zur Zeit des Ersten und Zweiten Weltkrieges kennt man einige Verfahren, die zur Herstellung von Gütern oder Rohstoffen verwendet wurden, weil auf Grund der besonderen Situation im Krieg nicht genügend für alle vorhanden war. Man versuchte Ersatz, Substitute, zu schaffen. Und wo das nicht ging, musste man eben verzichten, vor allem im zivilen Leben; die Bedürfnisse des militärischen Sektors hatte Vorrang. Ressourcen wurden alloziert, zugewiesen, verteilt. Man spricht in diesem Zusammenhang auch von Ressourcenallokation, die nicht nur in Zeiten der Krise oder des Krieges notwendig ist, sondern allgegenwärtig.⁽¹⁾
Im Normalfall sorgen Marktmechanismen für die Verteilung. Eine Ressourcenproblematik entsteht erst durch politische oder militärische Konflikte, da unter diesen Umständen davon ausgegangen wird, dass die Marktwirtschaft versagt. Konflikte oder Krisen erzeugen Knappheiten, die im Zuge der Knappheitsbewältigung wieder neue Konflikte hervorrufen. In einem Tagungsbericht vom 49. Historikertag in Mainz heißt es dazu:⁽²⁾

In der Folge lassen ihre Lösungsversuche wiederum neue Konfliktfelder entstehen, und zwar sowohl dort, wo sie (scheinbar) erfolgreich waren als auch dort, wo das Versprechen einer Aufhebung der Ressourcenproblematik uneingelöst blieb.

Es zeigte sich, dass Wirtschaft und Gesellschaft unterschiedlich auf die Kriege vorbereitet wurden. Im ersten Weltkrieg hat es praktisch keine Strategie gegeben um knappe Güter und Ressourcen durch andere ersetzen zu können. Die technikwissenschaftliche Forschung sei erst nach Kriegsbeginn zur Entwicklung von Ersatzstoffen mobilisiert worden, für eine Umsetzung in die Praxis fehlte die Zeit und die Ressourcen um praktikable Lösungen zu entwickeln. Im zweiten Weltkrieg gelang die Umstellung ein wenig besser, da schon vor Kriegsbeginn im Rahmen eines Vierjahresplanes mit der gezielten Forschung von Ersatzstoffen begonnen wurde und es dadurch eine Reihe von Produkten gab die es bis zur Alltagstauglichkeit schafften. Als die kriegsbedingte Zwangsbewirtschaftung beendet wurde, konnten sich aber nur die wenigsten dieser Innovationen behaupten. In der Friedenswirtschaft erwiesen sie sich als unpraktikabel.

Am Beispiel der Siemens-Schuckertwerke führte Luxbacher aus, das nur zehn Prozent der Ersatzstoffprojekte auch als in der Friedenswirtschaft verwendungsfähig eingestuft worden seien. Ein ganz ähnliches Bild zeige die Ersatzstoffwirtschaft des Zweiten Weltkrieges, auch wenn die Materialforschung zu diesem Zeitpunkt bereits weiter entwickelt gewesen und die Umstellung in der Bewirtschaftung mit größerem Vorlauf erfolgt sei.

Heute haben wir zwar keinen Krieg, doch eine Krise rund um Ressourcen schon. Nehmen wir als Beispiel die fossilen Brennstoffe, die zwar nicht knapp sind, es in absehbarer Zeit auch nicht werden, aber dennoch alloziert werden sollen. Als Grund wird die angenommene Aufnahmefähigkeitgrenze der Ressource Atmosphäre genannt. Mit den Mitteln der Zwangsbewitschaftung sollen die Voraussetzungen geschaffen werden diese angenommene Knappheit überwinden zu können. Ob diese Knappheit eine reelle ist, oder nur eine angenommene, spielt bei dieser Betrachtung hier keine Rolle.
Zwangsbewirtschaftung kennen wir natürlich auch in Friedenszeiten, vor allem aus der sozialistischen Plan- oder Zentralwirtschaft, bei der der Preismechanismus als Knappheitsindikator außer Kraft gesetzt wurde, was sich aber nur sehr bedingt innerhalb des Systems durchsetzten ließ, und nur dort. Auf weltwirtschaftlicher Ebene mussten sich diese aus diesem System hervorgehenden Produkte dem marktwirtschaftlichen Preismechanismus stellen. In diesem Wettstreit wurde klar, was wir auch an Hand der Kriegsbewirtschaftung sehen, dass nur ein sehr geringer Anteil der entwickelten Lösungen marktfähig waren und nach Zusammenbruch des Systems kaum noch eine Rolle spielten.⁽³⁾ Wahrscheinlich war der Anteil der verwertungsfähigen Produkte und Innovationen auch nur so um die zehn Prozent, wie oben angeführt.
Zwangsbewirtschaftung, das zeigen die Erfahrungen aus der Vergangenheit, führen also nicht in nennenswertem Umfang zu Innovationen, Produkten oder Substituten welche sich am Markt behaupten können. Nur in abgeschotteten Wirtschaftsbereichen, wie sie im Krieg oder in der Planwirtschaft entstehen, können sie sich behaupten und tragen nur sehr selten zur Lösung von Problemen bei. Vielmehr entstehen bei diesen Problemlösungsversuchen neue Probleme welche die Wettbewerbsfähigkeit der gesamten Volkswirtschaft in Mitleidenschaft ziehen. Vor allem am Beispiel »Zweiter Weltkrieg« wird aber ein Aspekt deutlich, dessen positive Auswirkungen oftmals fehl gedeutet werden. Zum Ende des Krieges hatte „die durch die von NS-Deutschland forcierte Ersatzstoffforschung zur Folge, dass die deutsche Metallforschung eine internationale Spitzenstellung inne hatte.“⁽⁴⁾ Diesen positiven Wissensvorsprung konnte man aber erst nutzen, als die Zwangsbewirtschaftung nicht mehr wirksam war.⁽⁵⁾
Kommen wir nun zur Energiewende, welche ihrem Wesen nach ebenfalls eine Zwangsbewirtschaftung darstellt. Grundannahme ist, dass die Ressource Atmosphäre an die Grenzen ihrer Aufnahmefähigkeit gekommen ist, oder demnächst kommt. Ob diese Annahme stimmt oder nicht ist erst mal egal, wie weiter oben schon angeführt ist. Die Frage ist, was will man mit dem Konzept der Energiewende erreichen. Klimaschutz ist nur im globalen Maßstab möglich, also muss es andere Gründe geben, die aber bislang eher wenig in der Öffentlichkeit angesprochen wurden. Der gewichtigste ist, dass Techniken zur Marktreife gebracht werden sollen und von denen erhofft wird, dass diese ein großer Exporterfolg werden. So berichtet Peter Heller im Science-Skeptical-Blog von einem Vortrag Klaus Töpfers am 17. Oktober 2012:⁽⁶⁾

Man habe sich schlicht eine Welt vor Augen geführt, in der bald neun Milliarden Menschen leben. Neun Milliarden mit einem wachsenden Energiehunger. Dann habe man sich gefragt, welche Technologien denn Deutschland exportieren könne, um diesen Bedarf zu stillen. Und die Kernenergie habe man eben ausgeschlossen. Sie sei für ein Entwicklungsland schlicht zu teuer und zu kompliziert.
[…
Nein, die Energiewende ist eigentlich ein Auftrag an die deutsche Industrie, die Technologien zu entwickeln, an deren zukünftiges weltweites Wachstum die Politik glaubt.

Öffentlich wird oft einer gewünschten Vorreiterrolle Deutschlands gesprochen, nur die Deutschen könnten zeigen wie es geht. Oder: „Wenn es Deutschland nicht schafft, dann schafft es niemand.“ Was auch heißen könnte: „Wenn wir es schaffen haben wir einen erheblichen Vorteil und Vorsprung auf den Weltmärkten.“ Ins gleich Horn blies auch Umweltminister Altmaier in einer Rede bei der Jungen Union Waldhessen, die gemeinsam mit der Fima Kirchner Solar Group (!), eingeladen hatte.⁽⁷⁾ Auch er geht wie Töpfer davon aus, dass der Energiehunger der Weltbevölkerung steigt und man in Zukunft nicht mehr in der Lage sein wird, diesen mit fossilen Energien zu stillen und da die Kernkraft zu unsicher sei, müsse man diese Bedürfnisse der aufstrebenden Nationen mit sogenannten Erneuerbaren Energien stillen. „Wenn wir es klug anstellen,“ so meint Altmaier, „wird die dafür notwendige Technik in Deutschland produziert und exportiert werden. Und weiter:

„Wir haben uns aus Eigeninteresse dafür entschieden die Kernkraftwerke nicht durch konventionelle Kraftwerke zu ersetzen“

Wenn wir das unterschiedliche Publikum berücksichtigen, vor dem diese Reden gehalten wurden, dann sind die Gemeinsamkeiten in den Argumentation schon verblüffend. Klimaschutz, Ressourcenproblematik – alles kalter Kaffee. In Wirklichkeit geht es darum sich bestmöglich im internationalem Wettbewerb zu positionieren, von dem man glaubt zu wissen, wie er denn in de Zukunft aussieht. Das ist einer der Hauptfehler bei diesem Denkansatz. Ein weiterer ist, vorzugaukeln, der Staat wüsste welche Technologien und Möglichkeiten in Zukunft vorhanden sind.
Ich bin nach der Rede Altmaiers ein wenig irritiert, weil mir nicht klar ist, was er eigentlich so richtig meint. Innerhalb weniger Minuten bringt er gleich zwei Beispiele, die sich aber in ihrer Logik widersprechen. Er sagt zum einen, man müse vorsichtig mit Masterplänen sein, man könne nicht alles im voraus regeln. Als Beispiel beschrieb er die Handys etwa um 1993 als: „Groß wie Brikett, schwer wie ein Brikett und dumm wie ein Brikett.“ Wenn man damals einen Masterplan entwickelt hätte, wie denn Handys für Jahr 2012 auszusehen hätten, nämlich: „Halb so groß wie ein Brikett, halb so schwer wie ein Brikett und halb so dumm wie Brikett,“ dann hätten wir heute nicht das was diese kleinen Dinger zu leisten im Stande sind. Mit diesem Beispiel hat er sehr Recht, um aber umgekehrt zu argumentieren, dass es auch für eine alte Frau es sich lohnen würde, ihr kleines Häuschen energetisch zu sanieren, statt ihr Geld zu vererben. Die Erben würden ja von der Investition profitieren und so auch Geld sparen.
Die alte Frau handelt klug wenn sie sagt, dass so wie es jetzt ist, für sie in Ordnung ist. Und dafür lieber das Geld vererbt, als ein energetisch saniertes Häuschen. Einfach weil sie nicht weiß welche Bedürfnisse unsere Nachkommen haben, und vor allem nicht, welche Möglichkeiten. Altmaier bevormundet mit seinem Vorschlag sowohl die gegenwärtige Generation, als auch die künftige. Die Entwicklung des Handy konnte ja auch nicht vorhergesehen werden, wie er anschaulich verdeutlichte. Aber heute weiß man natürlich was richtig ist. Welch eine Anmaßung.
Dieses beanspruchte Zukunftswissen ist auch solch ein Aspekt, der immer wieder in den Argumentationen der Neue Ineffiziente Energien (NIE)-Befürworter vorkommt. Weshalb auch so allergisch reagiert wird, wenn von einem Komplettumbau oder Abschaffung des EEG die Rede ist. Mit besonderen Argwohn wird nun Richtung Brüssel geschaut, denn die EU will Leitlinien für die NIE-Förderung einführen lassen.⁽⁸⁾ Wirtschaftsminister Philipp Rösler (FDP) kommentierte dies so:

„Ein funktionierender Energiebinnenmarkt ist von entscheidender Bedeutung für eine zukunftsfähige Energieversorgung in Europa. Deshalb müssen Wettbewerbsverzerrungen durch konsequente Anwendung der Binnenmarktregeln und Wettbewerbsvorschriften abgebaut werden. Dabei begrüße ich, dass sich die Kommission mit den Themen Versorgungssicherheit und Erneuerbare Energien befassen will, da wir für ein wirtschaftlich starkes Europa auch in diesen Bereichen ein markt- und wettbewerbsorientiertes Umfeld brauchen. ….“

Dies würde aber ein Ende der Zwangsbewirtschaftung nach derzeitigen Stil bedeuten. Wenn die NIE sich dem offenen Wettbewerb stellen müssen sind sie tot. Alles was im Rahmen dieses EEG geschehen ist, war nur unter dieser Zwangsbewirtschaftung möglich. So wie das im Krieg oder im Einflussbereich der ehemaligen Sowjetunion üblich war. Was von diesen Produkten und Technologien übrig blieb, nachdem die Rahmenbedingungen sich änderten, sieht man heute. Vielleicht 10%, so jedenfalls auf dem Historikertag in Mainz genannt. Es wird höchste Zeit zu erkennen, dass Zwangsbewirtschaftung nicht nur kaum etwas zur weiteren Entwicklung von Technologie, Produkten oder zur besseren Ressourcennutzung beiträgt, sondern auch noch dabei die Wirtschaftsbereiche schädigt, die nicht direkt von dieser Zwangsbewirtschaftung betroffen sind.
Autor Quentin Quencher; zuerst erschienen auf Glitzerwasser und Science Sceptical
Verweise / Erläuterungen:
(1) Ressourcenallokation ist die Zuordnung und Verteilung knapper Ressourcen wie Arbeit, Kapital, Boden und Rohstoffen zur Produktion von Gütern. Von der Frage der Allokation zu unterscheiden ist die Frage der Verteilung (Distribution) der produzierten Güter auf Individuen oder gesellschaftliche Gruppen.
[Wikipedia: Ressourcenallokation]
(2)Deutlich wurde aber, dass die Lösung von Ressourcenkonflikten nicht nur historische, sondern aktuelle Dimensionen besitzt, die zukünftige interdisziplinäre Forschungen als attraktiv erscheinen lassen.
[HT 2012: Ersatzstoffwirtschaft als innovative Lösungen für Ressourcenkonflikte im Ersten und Zweiten Weltkrieg?]
(3) Wenn heute der Marktanteil der »Ostprodukte« betrachtet wird, so täuscht dieser Anteil darüber hinweg, dass viele dieser Produkte nur noch den Markennahmen haben, aber im Prinzip nichts mehr gemeinsam mit dem ursprünlichen Produkt haben.
[Die Zeit: Ost-Produkte verlieren den DDR-Bonus]
[absatzwirtschaft.de: Marktforschung / Die neuen Bundeslaender / Ein Jahr danach]
[Welt.de: Diese Ostmarken haben sich im Westen behauptet]
(4)So unternahm HELMUT MAIER (Bochum) einen Vergleich der Ersatzstoffentwicklung der beiden Weltkriege am Beispiel von Zink. Als Ersatz für knappen Kupfer habe Zink in beiden Weltkriegen eine Verlängerung der Rohstoffdecke ermöglicht. Anfängliche Schwierigkeiten in der Anwendung hätten durch die technikwissenschaftliche Forschung gelöst werden können. …
[HT 2012: Ersatzstoffwirtschaft als innovative Lösungen für Ressourcenkonflikte im Ersten und Zweiten Weltkrieg?]
(5) In der Bundesrepublik Deutschland generierte in den 1950er Jahren der Wiederaufbau das „Wirtschaftswunder“. Namentlich hinterließ es einen tiefen und bleibenden positiven Eindruck, dass ab dem Montag nach der Währungsreform die Zwangsbewirtschaftung, ein Überbleibsel aus dem Zweiten Weltkrieg, praktisch aufgehoben wurde und Industrie und Einzelhandel sich vorbereitet hatten: Die Läden waren auf einmal voll.
[Wikipedia: Nachkriegszeit]
(6) Das ist, was Klaus Töpfer unter der Energiewende versteht. Nachhaltigkeitsideologie? Klimaschutz? Atomangst? Alles irgendwie dabei, aber eben nicht so wichtig. Nein, die Energiewende ist eigentlich ein Auftrag an die deutsche Industrie, die Technologien zu entwickeln, an deren zukünftiges weltweites Wachstum die Politik glaubt. Diese Töpfer-Wende bestimmte den Hauptteil seines Vortrages.
[Peter Heller: Die Töpfer-Wende]
(7) Am 13.11.2012 besuchte Peter Altmaier die Kirchner Solar Group in Alheim-Heinebach. Thema: Chancen und Herausforderungen der Energiewende in Deutschland. Die Rede wurde per Videostream im Netz übertragen und nun bei Youtube zu sehen.
[Youtube: Bundesumweltminister Peter Altmaier zu Besuch in Waldhessen]
(8) Er soll auf europäischer und nationaler Ebene den Verbrauchern die Nutzung der Vorteile, die aus der Energiemarktliberalisierung resultieren, weiter erleichtern. Zudem soll der Ausbau der Energieinfrastruktur beschleunigt und die Versorgungssicherheit durch europäische Regelungen gewährleistet werden. Die Kommission kündigte für 2013 an, Leitlinien zu einer Reform von Fördermechanismen und zur Förderung Erneuerbarer Energien vorzulegen.
[iwr.de: EU will 2013 Leitlinien für Reform bei EE-Förderung vorlegen]
Beitrag ebenfalls erschienen in Glitzerwasser
ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):
§  Ranga und die letzten Wünsche
§  EEG vor dem Aus?
§  Altmaier beerdigt die Energiewende




Die falschen Klimathesen des Professors Mojib Latif

Wenn man schon nach einem Leugner des Klimawandels suchen sollte, dann findet man diesen bei den AGW-Vertretern. Für einige hundert Jahre hat Michael Mann mit seiner berühmt-berüchtigten gleich mehrfach manipulierten Hockeyschlägerkurve[1] ein nahezu konstantes Klima erfunden.

Von 1000 bis 1900 ändert sich die Temperaturanomalie um knappe 0.2°C. Hierzu mussten aber durch statistische Tricks die kleine Eiszeit und das mittelalterliche Temperaturoptimum abhanden kommen.

These 1: Der Mensch ist unschuldig. Klimaschwankungen gab es immer schon.

Falsch. Es gab zwar immer schon natürliche Klimaschwankungen. Aber wenn wir so weitermachen wie bisher, bekommen wir eine Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.
Da es nicht eindeutig ist, was Prof. Latif (PL) meint, schauen wir uns sowohl die absolute Temperatur und die Temperaturanomalie an.

1. Absolute Temperatur

Der IPCC nimmt hierfür 288K oder 15°C an. Dieser Wert  ist aus zwei Gründen von geringer Aussage, da man mittels der Thermodynamik zeigen kann, dass es keinen Mittelwert geben kann und weil er (trotzdem) vom IPCC mittels des Stefan-Boltzmann-Gesetzes, , mit ε = 1, als ob die Erde ein schwarzer Körper sei, berechnet wird.
Um einen Vergleich zu ermöglichen, nehmen wir temporär trotzdem an, dass eine mittlere Temperatur gemessen werden kann. Die folgende Graphik zeigt die CO2-Konzentration und die Temperatur im Verlauf der Erdgeschichte.

Man erkennt drei wichtige Fakten. Erstens war es schon des Öfteren viel wärmer als heute und es gab durchaus Zeiten, wo die Temperatur stieg, aber die CO2-Konzentration abnahm. Und drittens, wir leben in einer Zeit der minimalen CO2-Konzentration und Konzentrationen die 3- bis 5mal so hoch waren wie derzeit führten zu keinem Klimakollaps. Die absolute Temperatur kann PL also nicht gemeint haben.

2. Der Temperaturanstieg

Im 20. Jahrhundert stieg die mittlere Temperatur um 0.7-0.8°C an. Dass es selbst daran beträchtliche Zweifel gibt wegen der permanenten Manipulationen der Messreihen, sei einmal übersehen (Details dazu im Bericht „Das Temperaturdilemma“). Die nächste Graphik zeigt die Dansgaard-Oeschger-Oszillationen.  Eine detaillierte Inspektion offenbart Schwankungen von mehr als Grad 10°C innerhalb weniger Jahrzehnte. Also war der Anstieg mindestens zehnmal stärker als der so dramatisierte im letzten Jahrhundert.

Man könnte noch spitzfindig bemerken, dass von der Geschichte der Menschheit gesprochen wurde. Wenn es aber erstens dramatischere Änderungen ohne von den Menschen erzeugtes CO2 gab, warum soll er für einen sehr moderaten Wandel in der Neuzeit „schuldig“ sein. Zweitens lebten und überlebten unsere Vorfahren während der extremen Dansgaard-Oeschger-Oszillationen. Oder zählen sie nicht mehr zur Menschheit?

These 2: Die Erwärmung wird nur von der Sonne bewirkt.

Falsch. Drei Viertel der Erwärmung ist vom Menschen gemacht, nur ein Viertel geht auf natürliche Ursachen zurück, insbesondere die Sonne. Aber der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.
Die These suggeriert die Antwort, aber diesmal ist der Fragesteller in die eigene Falle getappt, denn die Antwort lautet ganz klar Ja. Die Sonne ist nun einmal die einzige uns zur Verfügung stehende Energiequelle, wenn man von dem vernachlässigbaren Beitrag der Erdwärme absieht.
Die Verteilung der eingestrahlten und abgestrahlten Energie auf der Erde und die dadurch bewirkten lokalen Temperaturen hängen auch von anderen Größen ab.
Nehmen wir an, dass dies in der These gemeint sei.
Die Behauptung „drei Viertel der Erwärmung ist vom Menschen gemacht“ erscheint nach der Diskussion der ersten These schon etwas abstrus, denn wie konnten unsere zahlenmäßig geringen Vorfahren solch drastische Temperaturänderungen produzieren, da sie ja nicht einmal Autos hatten.
Die nächste Graphik vergleicht die Temperaturanomalie mit der Länge des Sonnenzyklus und der Änderung der CO2-Konzentration.
 
Wenn es nach PL eine Korrelation zwischen der Sonnenaktivität und der Temperaturanomalie  vor 1950 gab, dann ist es anhand der Graphik schwer verständlich, warum dies danach nicht mehr gelten soll. Richtig würde PL liegen, wenn er die Korrelation zwischen der Temperaturanomalie und der CO2-Konzentration in Frage stellen würde, denn die ist erbärmlich. Der Standardeinwand lautet hier, dass die Schwankung der solaren Einstrahlung zu gering ist. Dies mag für den integralen Wert richtig sein, aber im UV-Bereich liegt die Variation z. B. im Bereich von 10%. Des Weiteren hat das Cloud-Experiment in CERN eindeutig gezeigt, dass eine Verstärkung der kosmischen Strahlung die Wolkenbildung fördert, wie Svensmark[2] zuerst postuliert hat. Die Intensität der in die Atmosphäre eintretenden kosmischen Strahlung ist aber von der magnetischen Aktivität der Sonne abhängig. Ein Maß für diese Aktivität ist der ap-Index und für die kosmische Strahlung sind dies die gemessene Anzahl der Neutronen auf der Oberfläche der Erde. Umso mehr Neutronen gemessen werden umso stärker ist die kosmische Strahlung und umso geringer das solare Magnetfeld.
Dieser Zusammenhang wird durch die nächste Graphik, die die Variation des ap-Indexes mit der invertierten Änderung des Neutronenflusses vergleicht, eindrucksvoll belegt.
  Die folgende Graphik zeigt zweifelsfrei, dass es eine enge Korrelation zwischen der kosmischen Strahlung und der Wolkenbildung gibt. Mehr Wolken bedeuten geringere Einstrahlung und sinkende Temperaturen und vice versa.

Fazit: Die Behauptung, dass der Einfluss der Sonne nur für die erste Hälfte des Jahrhunderts verantwortlich ist, steht auf sehr tönernen Füßen.
Aber lassen wir doch PL selbst zu Worte kommen. Am 16.11.09 stand in der „Bild“:
Jetzt macht der Klimawandel Pause. Ausgerechnet vor dem Klimagipfel der Vereinten Nationen in Kopenhagen, bei dem Forschung und Wirtschaft im Dezember über milliardenschwere Programme zum Schutz unserer Erde beraten wollen. Wie passt das zusammen?

Meteorologe Mojib Latif vom Kieler Leibniz-Institut für Meereswissenschaften: „Derzeit hat die Erdwärmung Pause.“

WAS SIND DIE GRÜNDE?

Unklar! Der Klimawandel stellt die Wissenschaftler mal wieder vor ein Rätsel. Jedoch nennen sie im „Spiegel“ zwei mögliche Gründe.
• Die Sonne schwächelt. (Endete nicht der Einfluss der Sonne 1950?) Weltraum-Forschern der Nasa fiel die geringe Zahl der Sonnenflecken auf, ein Zeichen für geringe Strahlungsaktivität. Das gab es so ausgeprägt seit Hunderten Jahren nicht.
• Im Pazifik steigt am Äquator kaltes Tiefenwasser nach oben („Pazifische Dekaden-Oszillation“). Mojib Latif meint, dass die Erdatmosphäre dadurch abgekühlt werde.
Beides sind Phänomene, die nur einige Jahre andauern. Danach gehe der Klimawandel weiter, sagt Latif: „Tatsächlich sind Phasen der Stagnation oder gar Abkühlung normal.“
Richtig Herr Prof. Latif ist, dass sich das Klima immer änderte und ändern wird. Erklären müssten Sie uns aber, warum eine Stagnation und eine Abkühlung normal sind, aber eine Erwärmung ungewöhnlich und menschengemacht ist.

These 3: CO2 hat keinen Anteil an der Erderwärmung, Wasserdampf  ist schuld.

Falsch. Wer das behauptet, verwechselt den natürlichen mit dem vom Menschen gemachten Treibhauseffekt. Wasserdampf hat einen Anteil von gut 60 Prozent am natürlichen Treibhauseffekt, der unsere Erdoberfläche warm (15 Grad) hält. Hätten wir ihn nicht, wäre unser Planet eine Eiswüste mit minus 18 Grad. Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.
Richtig ist dass der Wasserdampf den überwiegenden Beitrag liefert. Der vom CO2 kann aus der folgenden Graphik abgelesen werden inklusive des Effektes einer Steigerung des CO2-Gehaltes in der Atmosphäre.
 
Prof. R S Lindzen[3] vom MIT hat abgeschätzt, dass die Temperatur um 0.3-0.5°C steigt bei einer Verdopplung des CO2-Gehaltes. Dies ist die relevante Zahl! Die vom IPCC und von PL prognostizierten Anstiege von einigen Grad implizieren eine positive Rückkopplung des Temperaturanstieges mit dem ausgehenden Strahlungsfluss. Dies ist ein charakteristisches Merkmal aller Klimamodelle. Satellitenmessungen zeigen aber exakt das Gegenteil. Es gibt eine negative Rückkopplung. Alarmistische Meldungen beruhen demnach auf falschen Prämissen.
Wenn also der gigantische Effekt des CO2 mickrige 0.3-0.5°C Temperaturanstieg, bei einer nach Prof. T V Segalstadt (Geologe) aus Mangel an fossilen Rohstoffen nicht möglichen Verdopplung des CO2-Gehaltes, bedeutet, dann braucht sich niemand darüber zu sorgen. Im Gegenteil, es wäre sogar gut so, da diese sehr moderate Änderung zusammen mit einem höheren CO2-Gehalt die Produktion der Biomasse deutlich erhöhen würde.

These 4: Zusätzliches CO2 in der Atmosphäre hat keinen Einfluss aufs Klima.

Falsch. Die Skeptiker verstehen nicht, warum CO2 überhaupt klimawirksam ist. Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt – es lässt die Wärme nicht entweichen. Je mehr CO2, desto dichter oder dicker das Glas und umso größer die Erwärmung.
Den Skeptikern Unverständnis zu unterstellen und dabei selbst solch physikalischen Unsinn zu erzählen ist die schiere Unverschämtheit. Die Atmosphäre, ein System mit freier Teilchenkonvektion, mit einem Treibhaus, bei dem gerade diese Konvektion durch das Glas unterbrochen wird, zu vergleichen, zeugt von nicht verstandener Physik. Schon vor mehr als hundert Jahren hat Prof. R W Wood experimentell gezeigt, dass die Temperatur in einem Treibhaus steigt, weil die Luftzirkulation unterbunden und nicht weil die IR-Strahlung von dem Glas absorbiert wird. Das Experiment wurde kürzlich von E Loock (2008) und N S Nahle (2011) verifiziert. Selbst jeder Laie kennt diesen Effekt von dem Auto in der Sonne. Obwohl viel weniger Strahlung in das Auto eintritt als die Umgebung erhält, ist es im Wagen viel wärmer, weil die Konvektion sowohl durch die steigende Temperatur als auch durch das beschränkte Luftvolumen unterdrückt wird. Die Situation wird sofort verbessert, wenn man die Fenster einen Spalt weit öffnet, obwohl dies fast nichts am Strahlungsaustausch ändert.
Noch eine Frage an PL und die AGW-Sympathisanten: Die Marsatmosphäre besteht zu 95% aus CO2. Warum gibt es trotzdem auf dem Mars keinen Treibhauseffekt?
Übrigens ist auf dem Mars in den letzten Dekaden des 20. Jahrhundert die Temperatur gestiegen[4]. Dies geschah gerade in dem Zeitraum in dem die Sonne nach PL keinen Einfluss auf den Temperaturanstieg auf der Erde hatte. Also auf der Erde bewirkte die Sonnenaktivität nichts, während sie gleichzeitig die Temperatur auf dem Mars steigen ließ.

These 5: Das CO2 produzieren nicht wir Menschen, sondern die Weltmeere.

Falsch. Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmale, die sich vom natürlichen CO2 eindeutig unterscheiden. Dieses kann man messen.
Unsinn, die Ozeane produzieren kein CO2. Sie binden es und zwar mehr mit abnehmender Temperatur.  
Richtig ist, dass es Kohlenstoff als 12C und 13C gibt. Das Mischungsverhältnis ist fix in CaCO3 (Referenzsystem), wogegen durch die Photosynthese in organischen Materialien 13C verringert wird. Das Isotopenverhältnis bestimmt man mit der folgenden Formel
 
Es ist bekannt, dass dieser Wert für fossile Brennstoffe und biologisches Material
δ13C = -26‰ beträgt. Der natürliche Gehalt in der Atmosphäre ist δ13C =-7‰. Gemäß dem IPCC wurden 27% des CO2 (350ppm 1990) durch die Menschheit hinzugefügt. Demnach muss das Isotopenverhältnis δ13C =-12‰ betragen (-[27·26 + 73·7]/100).
Keeling et al.[5] haben 1978 für das Verhältnis -7.489‰ gemessen und 1988 -7.801‰, was weit entfernt von dem vom IPCC und dessen Jüngern angegeben Wert von -12‰ ist.

These 6: Die Klimamodelle der Forscher stimmen nicht.

Falsch. Die Erwärmung entwickelt sich genau wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen.
Falsch, es gibt keinen Grund den Modellen zu trauen. Ausführlich wurde dies in dem Bericht „Klimamodelle – wie verlässlich sind sie?“ untersucht.
Wer dies trotzdem anhand der folgenden Graphik behauptet leidet entweder unter Realitätsverlust oder betrachtet die Menschen als beschränkt.
 
Nun noch ein paar Aussagen von namhaften Wissenschaftlern:
Prof. Freeman Dyson–one of the world’s most eminent physicists says the models used to justify global warming alarmism are "full of fudge factors" and "do not begin to describe the real world."
Prof. Antonino Zichichi–one of the world’s foremost physicists, former president of the European Physical Society, who discovered nuclear antimatter–calls global warming models "incoherent and invalid."
Prof. Richard Lindzen–Professor of Meteorology at M.I.T., member of the National Research  Council Board on Atmospheric Sciences and Climate, says
”It isn’t just that the alarmists are trumpeting model results that we know must be wrong. It is that they are trumpeting catastrophes that couldn’t happen even if models were right.”
Dr. Kanya Kusano is Program Director and Group Leader for the Earth Simulator at the Japan Agency for Marine-Earth Science & Technology (JAMSTEC)
Climate science is ‘ancient astrology’.
Zum Schluss noch ein erstaunliches Zitat vom “Godfather” der AGW-Jünger, James Hansen:
„In my opinion, the IPCC calculations, epitomized by the Wild et al. result, omit the most important physics, especially the nonlinear effects of meltwater and secondarily the effects of black carbon”
Was bewegte Hansen alles in Grund und Boden zu stampfen?
Nun Wild et al. hatten mit einem „ausgeklügelten“ Klimamodell berechnet, dass das Eis von Grönland und der Antarktis bei Verdoppelung des CO2 wächst.
Solcher Frevel verdient natürlich die Schelte des Herrn.

Fassen wir zusammen:

These 1: Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.

Im letzten Jahrhundert betrug die Temperaturanomalie 0.7-0.8°C. Bei den Dansgaard-Oeschger-Oszillationen gab es Sprünge von mehr als 10°C in weniger als 100 Jahre.  

These 2: Der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.

Das Ende der Erwärmung im 21. Jahrhundert wird von NASA-Forschern durch das Schwächeln der Sonne erklärt. Die Überaktivität der Sonne im 20. Jahrhundert hatte dagegen keinen Einfluss. Was für eine Logik!

These 3: Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.

Einer theoretischen Verdopplung des CO2 steht ein möglicher Anstieg von 0.3-0.5°C gegenüber. Höhere Werte stammen von unglaubwürdigen Klimamodellen (siehe letzte These).

These 4: Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt.

Purer Unsinn.

These 5: Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmal, die man messen kann.

Richtig, das Ergebnis der Messung verschweigt aber PL aus gutem Grund.

These 6: Es gibt keinen Grund, den Modellen zu misstrauen.

Im Gegenteil es gibt keinen Grund ihnen und den Aussagen von Prof. Latif zu trauen.
Dr. B. Hüttner für EIKE


[1] Dies ist detailliert dargelegt und bewiesen von A W Montford in “The Hockey Stick Illusion”
[2] H Svensmark – PHYSICAL REVIEW LETTERS 81 (1998) 5027
[3] Lindzen – Proc. Natl. Acad. Sci. USA 94 (1997)
[4] Fenton et al. – NATURE online April (2007)
[5] In: Peterson, D.H. (Ed.): Aspects of climate variability in the Pacific and the Western Americas. American Geophysical Union, Geophysical Monograph 55, 165-236




USA überdenken ihre Sicherheit bzgl. zurückgehender Ölimporte aus dem Nahen Osten

Bild rechts: Eine US-Marinepatroullie streift über eine verkohlte Öl-Landschaft nahe einem brennenden Bohrloch bei Kuwait City im März 1991. Sorgen um die Ölversorgung standen bei der Intervention der USA und ihrer Alliierten während der irakischen Invasion in Kuwait Pate. Aber die amerikanische Politik ändert sich derzeit angesichts der zurück gehenden Importe von Öl aus dem Nahen Osten in die USA. Quelle: Credit John Gaps III / AP
Seit über 40 Jahren wurzelte die Präsenz der USA in der Region in einer einzigen Tatsache: Von dort kommt unser Öl. Die Notwendigkeit, das Öl am Fließen zu halten bedeutete, dass die US-Regierungen den engen Schulterschluss mit Saudi-Arabien gesucht haben. Es bedeutete, dass das US-Militär Flugzeugträger rund um den Golf stationiert hat. Und es bedeutete, dass die USA auch den Willen zum Krieg hatten, um die Öl-Schifffahrtsrouten offen zu halten, eine Position, die erstmals von Präsident Carter deutlich ausgesprochen worden ist:
„Der Versuch irgendeiner auswärtigen Macht, Kontrolle über das Gebiet des Persischen Golfes zu erlangen, wird als ein Angriff auf die vitalen Interessen der USA aufgefasst“, verkündete Carter in seinem Bericht zur Lage der Nation (State of the Union address) 1980. „Ein solcher Versuch“, sagte Carter, „wird mit allen notwendigen Mitteln abgewehrt werden, einschließlich militärischer Operationen“.
Seitdem war die Carter-Doktrin Grundlage der US-Politik.
Als der Irak im Jahre 1990 in Kuwait einmarschiert war und die Ölversorgung aus der Golfregion bedroht hatte, haben die USA und seine Alliierten interveniert. Das öffentlich verkündete Ziel war, Kuwait zu helfen, seine Souveränität zurück zu erhalten, aber das ist nicht die ganze Wahrheit.
„Es gab eine Masse Implikationen bzgl. Öl hinter der ganzen Episode und unserer Reaktion darauf“, sagt Roger Altman, stellvertretender Schatzminister in der Clinton-Administration. „Ich sage nicht, dass wir Kuwait ohne die Öl-Perspektive nicht geholfen hätten, aber das Öl musste eine große Rolle spielen“.

Eine andere Energiegleichung

Die Angelegenheit Öl hat sich jedoch seitdem erheblich verändert. Der aus dem Golf stammende Anteil der Ölimporte in die USA ist um ein Drittel zurückgegangen. Viel von diesem Öl geht stattdessen nach China, Japan und Korea.
„Die asiatischen Länder sind tatsächlich die größten Verbraucher von Öl aus dem Nahen Osten”, sagt Mikkal Herberg, Direktor des Energiesicherheitsprogramms im National Bureau of Asian Research. „Wir bekommen nur noch sehr wenig Öl aus dem Golf. In Zukunft werden wir überhaupt keine nennenswerten Mengen von Öl mehr aus dem Persischen Golf brauchen“.
Die USA erzeugen jetzt mehr ihr eigenes Öl. Außerdem steigen die Importe aus Kanada, Mexiko und Brasilien.
Ein neuer Bericht der EIA beleuchtet die Verschiebung im Handel mit Öl aus dem Nahen Osten. Die in Paris ansässige Organisation projiziert, dass bis zum Jahr 2035 fast 90 Prozent der Ölexporte vom Persischen Golf nach Asien gehen und die USA nur noch einen vernachlässigbaren Anteil erhalten.
„Die Beziehungen zwischen den USA und Brasilien werden ziemlich wichtig sein”, sagt Altman, inzwischen Vorsitzender der Evercore Partners, einer Investmentbank. „Die Beziehungen mit Mexiko werden ziemlich wichtig sein. Aus energiepolitischer Sicht werden sie wichtiger sein als Beziehungen mit Irak oder Libyen oder potentiell Iran“.
Der drastische Rückgang der Abhängigkeit von Öl aus dem Persischen Golf wirft Fragen darüber auf, ob die Carter-Doktrin immer noch gelten soll.
„Die USA waren der Garant der Seewege und der Produzenten am Golf, weil wir fühlten, wie vital das für die Energie- und Sicherheitsinteressen der USA war“, sagt Herberg vom National Bureau of Asian Research. „Da wir quasi energieunabhängig werden, wird man sich wahrscheinlich hier in den USA fragen, ‚müssen wir uns diese Last wirklich aufbürden?’“.

Sicherheit der wichtigsten Schifffahrtswege

Wenn es künftig nicht mehr so wichtig ist, die Ölversorgung aus dem Persischen Golf sicherzustellen, würde das einen Rückgang der US-Präsenz im Nahen Osten rechtfertigen?
Öl aus dem Persischen Golf wird wichtig bleiben, und irgendjemand muss die Sicherheit der Seewege im Golf sicherstellen. China, das zur Nummer 1 des Aufkaufens von Öl aus dem Golf aufsteigen wird, profitiert derzeit von der gewaltigen US-Präsenz in der Region. Vielleicht könnten die USA die Verantwortung für die Sicherheit im Persischen Golf an China übertragen.
„Strategisch ist das etwas, das wir nicht wirklich wollen”, sagt Herberg. „Aber hinsichtlich Öl profitieren sie am meisten hiervon. Sie sind Trittbrettfahrer auf diesen freien Seewegen, die die USA offen halten. Wie also geht man mit diesem Konflikt um?“
Die IEA, die die Regierungen hinsichtlich Energiepolitik berät, wies in dem 2012 veröffentlichten Bericht zur Weltenergie darauf hin, dass die Verschiebung im Ölhandel neue militärische Bündnisse schmieden könnte. Angesichts des angespannten Verteidigungshaushalts hallt dieses Argument nach.
Der Energietycoon T. Boone Pickens wird im Magazin Parade mit den Worten zitiert: „Es ist hirnrissig, dass die 5. Flotte der US-Marine dort fest stationiert ist, um Öl zu schützen, dass nach China und Europa geht“.
Der neuen Verteidigungsstrategie des Pentagon zufolge, festgelegt im Januar, sollten die USA [ihr Verhältnis] zur Region Asien – Pazifik neu „austarieren“. Aber sie spricht sich nicht dafür aus, die Rolle der USA im Nahen Osten herabzustufen.

Die Frage des globalen Ölmarktes

Nur wenige Funktionäre der US-Verteidigung würden sich mit dem Gedanken anfreunden können, dass die chinesische Marine die der USA im Persischen Golf ersetzt. Aber es könnte auch einen Grund hinsichtlich des Öls geben, die US-Präsenz am Golf aufrecht zu erhalten.
Öl wird auf einem globalen Markt gehandelt. Vielleicht brauchen die USA nicht mehr so viel Öl aus dem Persischen Golf wie bisher, aber sie müssen ein Interesse daran haben, dass das Öl weiterhin fließt. Eine Unterbrechung des Ölhandels vom Golf hätte steigende Ölpreise für jedermann zur Folge.
„In gewisser Weise steht die US-Marine vor einem neuen Dilemma”, sagt Herberg. „Der Zugang der USA zu Öl wird in der westlichen Hemisphäre immer sicherer. Am Golf  ist er viel weniger zuverlässig. Aber hinsichtlich des Ölpreises, der globalen Ölmärkte und des Einflusses auf die globale und die US-Wirtschaft bleibt der Ölfluss aus dem Golf von vitalem Interesse.“
Sollte der Ölpreis wegen Schwierigkeiten am Persischen Golf in die Höhe schießen, würde dies ein größeres Handelsdefizit im Energiebereich bedeuten. Damit würde ein größerer Anteil des nationalen Einkommens der USA das Land verlassen.
Carl Pope, der ehemalige Vorsitzende des Sierra-Clubs, sagt, dass man die Realität im Auge behalten muss. „Es geht nicht so sehr darum, wie viele Barrel Öl wir importieren”, sagt Pope. „Es geht um die hunderte von Milliarden Dollar, die wir exportieren, die unsere Sicherheit bedrohen“.
Die US-Flugzeugträger im Persischen Golf könnten noch eine ganze Weile gebraucht werden.
Tom Gjelten
Copyright 2012 National Public Radio. To see more, visit http://www.npr.org/ .
Link: http://www.kawc.org/post/us-rethinks-security-mideast-oil-imports-drop
Übersetzt von Chris Frey EIKE




Offener Brief eines CDU Ratsherren an seinen Stadtkämmerer!

Über viele Jahre haben alle politischen Parteien in Deutschland die Parolen zur angeblich durch anthropogenes CO2 bedingten "Klima-Katastrophe" einfach nachgeplappert. Kaum ein Politiker hat sich die Mühe gemacht, selber einmal anhand auch einer umfangreich vorhandenen Skeptiker-Literatur diese Behauptungen zu überprüfen. Dieses blinde Vertrauen in eine vollkommen politisierte staatliche Klima-Auftrags-Forschung und zugleich in die freiwillig gleich-geschaltete Berichterstattung der deutschen(!) Medien scheint seit einiger Zeit zu schwinden. Anfänge waren z.B. die Anhörung von Professor Fred Singer 2010 durch eine Parlamentarier-Gruppe um Frau Marie-Luise Dött  (CDU) , dann zwei Kongresse der FDP in Sachsen (am 30.6.12 zum Klimathema und am 1.12.12 zum Energiethema unter dem bezeichenden Titel: "Zurück in die Steinzeit – Wie viel Energiewende verträgt Deutschland?") , sowie nun ganz aktuell ein "offener Brief" des CDU-Ratsherren Kurt Fischer, der auch langjähriger Ortsverbandsvorsitzender war.  Er nimmt eine unschöne Attacke des Dr. Hansmann auf Herrn Fischer zum Anlass, die dieser nicht auf sich beruhen lassen will. 

von Kurt Fischer Ratsherr CDU der Landeshauptstadt Hannover

An Herrn

 

Dr. Marc Hansmann

Kämmerer der Landeshauptstadt Hannover

Datum: 14.11.2012

Sehr geehrter Herr Dr. Hansmann,

mit der Äußerung, der Hurrikan Sandy sei eine Folge des Klimawandels,  reflektieren Sie lediglich die vorherrschende Medien-Darstellung. Demgegenüber – einer wissenschaftlichen Nachprüfung hält diese Behauptung nicht stand:

1.  Die Messdaten der IPCC-nahen Institute belegen, daß seit 14 Jahren keine Erderwärmung mehr gemessen wird:


Quelle: http://www.metoffice.gov.uk/hadobs/3/diagnostics/global/nh+sh ; Textfenster und Trendpfeil ergänzt.
D a z u   sagt der Direktor des Englischen Instituts UEA/CRU, wo die o.a. Graphik erstellt und aktualisiert wird, Prof. Phil JONES im Interview:   

"Professor Jones also conceded the possibility that the world was warmer in medieval times than now – suggesting global warming may not be a man-made phenomenon. And he said that for the past 15 years there has been no statistically significant warming."

http://www.dailymail.co.uk/news/article-1250872/Climategate-U-turn-Astonishment-scientist-centre-global-warming-email-row-admits-data-organised.html# ; Interview in Daily Mail, 15.02.2010;
Man muß folglich nicht die sogenannten "Skeptiker" bemühen, um – über die o.a. Graphik hinaus  – das zu belegen, denn selbst in der überwiegend alarmistisch geprägten deutschen Klima-Forschung bestätigen einige der seriösen Wissenschaftler genau das Gleiche, z.B. :
Prof. Dr. Jochem MAROTZKE (Direktor Max-Planck-Inst. Hamburg):

"Nach unseren ersten Berechnungen müsste es in den kommenden Jahren sprunghaft wärmer werden. Aber wir trauen dieser Prognose nicht über den Weg. Denn die Simulation hätte auch den derzeit herrschenden Stillstand beim Temperaturanstieg vorhersagen müssen – was nicht gelang."    DER SPIEGEL, 27.02.2012, S. 113

"Mit der gegenwärtig beobachteten Klima-Entwicklung sind die Modelle also nicht konsistent", gesteht Jochem Marotzke, Direktor des Hamburger Max-Planck-Institutes für Meteorologie.   FOCUS-ol. : (http://www.focus.de/wissen/weltraum/odenwalds_universum/tid-25498/neuer-bericht-sorgt-fuer-kontroverseerderwaermung-eine-frage-deransicht_aid_737040.html ; 16.04.2012)

2.  Sandy ist in den Hurrikan-Statistiken der Wetterdienste bezüglich seiner Wind-Stärke allenfalls Durchschnitt :

http://www.climatedepot.com/a/18238/Scientists-reject-SandyClimate-Link–Warmists-Go-Full-Tabloid-Climatology–Claim-Sandy-Speaks–Round-Up-of-Hurricane-Sandy-Reactions
Meteorologisch etwas ungewöhnlich, aber keinesfalls außergewöhnlich war es, daß ein Hurrikan die US-amerikanische Ostküste erreicht. Nur dadurch entstanden die extremen Schäden. Das lag an einer besonderen Wetterlage, die mit "Klimawandel" nicht das Geringste zu tun hat:
http://www.eike-klima-energie.eu/news-cache/hurrikan-sandy-fanal-der-klima-alarmisten 

3.  Einen Trend zu mehr Extremwetter findet auch das IPCC (Weltklimarat) nicht:

“Recent analyses in changes in severe local weather (tornados, thunder days, lightning and hail) in a few selected regions provide not compelling evidence for widespread systematic long-term changes“.
“Neue Analysen der Änderungen bei lokalen Unwettern (Tornados, Gewittertage, Blitze und Hagel) in einigen ausgewählten Regionen liefern keinen zwingenden Beweis für weitverbreitete systematische langfristige Änderungen“.     (Quelle: IPCC, 2001, TAR-02-2, Chapt. 2.7.4., Summary, S.163-164).
Auch ein IPCC-Sonderbericht vor der Klima-Konferenz in Durban (2011) kam zu keinem anderen Ergebnis:
Quelle: http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterbericht-mehr-extremwetter-fehlanzeige

Weltweite Statistiken der Wetterdienste  zeigen ebenfalls keine Extremwetter-Trends:
Quelle: http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/
Auch die wiederholten Behauptungen von Versicherungen, es gäbe mehr Schäden,  w e i l  es mehr Extrem-Wetter gäbe, halten einer Nachprüfung nicht stand:
Quelle: http://www.eike-klima-energie.eu/news-cache/extrem-wetter-hysterie-und-kein-ende-oder-neues-aus-der-anstalt/
u n d
http://www.kaltesonne.de/?p=4285
u n d
http://www.eike-klima-energie.eu/climategate-anzeige/bei-medien-und-der-muenchner-rueck-nehmen-naturkatastrophen-deutlich-zu-in-der-wirklichkeit-ist-das-anders/
Sehr geehrter Herr Dr. Hansmann, erstaunt stelle ich fest, dass selbst kluge Leute immer wieder Medien-Verlautbarungen  nachsprechen, die auf „eingefärbten Behauptungen“ von Profiteueren und Ideologen der "Klima-Welt-Rettung“ beruhen, aber auf naturwissenschaft-lich unsicherer Basis stehen. Ich fände es sehr schön, wenn sich mehr „kluge Leute“ der Mühe unterzögen, selbst zu denken und selbst nachzuprüfen!!
Insbesondere müssen wir uns vor den Politikern hüten, die – wie vorstehend ausgeführt – auf fragwürdiger und unabgesicherter naturwissenschaftlicher Grundlage sehr teuere so genannte "Klima-Schutz-Maßnahmen" verantworten, denn man könnte uns eines Tages auch daran  messen.
Dazu sagt z.B. der Vizepräsident des Alfred-Wegener-Instituts, Prof. Dr. Heinrich Miller, im Interview zum "Klimaschutz":

Wer von Klimaschutz redet, weckt Illusionen“. Miller mahnt zu Bescheidenheit: „Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert.“ DIE ZEIT, Bohrer im Eis, 06.06.2007 , S.40

Mit freundlichen Grüßen
Kurt Fischer
Mitglied im Rat der Landeshauptstadt Hannover
Mitglied im Umweltausschuss seit mehr als 10 Jahren