Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 12 (Epilog 2) : Mediale Tsunamis ?

Und der Meteorologe Karsten Brandt macht auch innerhalb nur eines Jahres einen merkwürdigen “Sinneswandel” durch. Aber einen ganz “dicken Hund” hat sich der Doku-Sender “PHOENIX” erlaubt, der eine Anmoderation zum Thema “Klimawandel” für die 2. Ausstrahlung – 9 Tage später – nachträglich verändert hatte, obwohl die erste Anmoderation wissenschaftlich korrekt gewesen war. In die 2. Anmoderation wurden stattdessen nun suggestive Falschbehauptungen durch Verwendung irreführender Begriffe eingebaut. Dadurch wird nun womöglich beweisbar, wie eine TV-Berichterstattung rund um den Klimawandel mit “politischen Motiven” und suggestiv-falschen wissenschaftlichen Aussagen vorsätzlich und bewusst manipuliert wird. Wiedermal wurde der Tsunami 2004, der bekanntlich durch ein Erdbeben ausgelöst worden ist, nun bei PHOENIX plötzlich auch zum Wetterphänomen. Aber machen Sie sich dazu selbst ein Bild in dem folgenden Video. Auch Dunja Hayali vom “ZDF-Morgenmagazin” ist mit dieser “Tsunami-Nummer” auch wieder mit dabei:

Das obigen Video analysiert ebenfalls die mediale Berichterstattung über die Hurrikans/Taifune im Vorjahr 2012 und im VorVorjahr 2011 und fördert auch zu diesen angeblichen Extremwettern sehr Erstaunliches zu Tage.  Aber der “Schocker zum Abschluss” der “unbequemen Wahrheiten” wird wohl für viele Zuschauer der 15-minütige Zusammenschnitt der DokuFiktion “Crash 2030” aus dem Jahr 1994 sein, an der u.a. auch Hans J. Schellnhuber und Hartmut Grassl als “Wissenschaftliche Beratung” agierten. Wer sich diese Doku-Fiktion in voller Länge (45 Minuten) anschauen will, kann sich das HIER antun. Aber der ARD-ModeratorReinhold Beckmann hat sich im Vergleich zur 2009er-”Trash”-Klimasendung mit “Klimapapst” Hans J. Schellnhuber in diesen Tagen doch wahrlich zum Positiven weiterentwickelt. Vorsichtiger Respekt, Herr Beckmann, auch DAS muss und wird im Video von Epilog 2 erwähnt werden.

Mit diesem “Epilog 2″ endet nun definitiv das Videoprojekt über die “10 unbequemen Wahrheiten über Hans J. Schellnhuber“, was uns seit gut einem halben Jahr in Atem gehalten hat. Wir hoffen es hat Ihnen viel an Aufklärung über die Berichterstattung über den Klimawandel gebracht. Wir wurden bisher nicht von der “Gegenseite” darüber informiert, dass wir seit dem 02.09.2013 – seitdem die “unbequemen Wahrheiten” veröffentlicht wurden – irgendetwas nicht korrekt berichtet hätten. Wir haben wohl nichts Falsches erzählt. Insofern können wir uns wohl ein wenig auf die Schulter klopfen.

Die Macher und Unterstützer des “Klimamanifests-von-Heiligenroth” sind nach wie vor an Feedback und Kritik über dieses Filmprojekt interessiert. Der 6-minütige Videotrailer mit einer integrierten Playlist mit allen 15 Einzel-Filmen (Trailer, 12 Kapitel, Trailer von Kapitel 8 und AddOn-Film zu Kapitel 2 & 3 ) ist weiterhinseit dem 27.08.2013 online.




Wie und warum das IPCC das CO2 mittels falscher Informationen dämonisiert hat

Man vergleiche die industrialisierte Nation mit einer internen Verbrennungsmaschine auf Basis fossiler Treibstoffe. Man kann die Maschine auf zwei Arten anhalten: Die Treibstoffzufuhr unterbinden oder den Auspuff stopfen. Die Treibstoffzufuhr zu unterbrechen ist ein politisches Mienenfeld. Die Menschen merken sofort, wenn alle Preise steigen, vor allem für Nahrungsmittel. Es ist einfacher zu zeigen, dass die Auspuffgase zu irreparablen Umweltschäden führen. Das ist der Grund, dass CO2 zum alleinigen Brennpunkt des IPCC geworden ist. Verfahren und Methoden wurden aufeinander abgestimmt, CO2 zu isolieren und zu zeigen, dass dieses Gas zu einer globalen Runaway-Erwärmung führt.

In den achtziger Jahren habe ich Henry Hengeveld, Mitarbeiter bei Environment Canada davor gewarnt, dass es ein Problem ist, einen Politiker von einem Gedanken zu überzeugen. Das Propagieren von CO2 als ein Problem war Teil von Henrys Karriere. Ich erklärte ihm, dass das größere Problem auftaucht, wenn man ihn überzeugt und dann die Behauptung als falsch überführt wird. Entweder räumt man den Fehler ein, oder man verschweigt die Wahrheit. Environment Canada und die Mitgliedsstaaten des IPCC haben sich dafür entschieden, die Wahrheit zu verschleiern.

1        Die IPCC-Definition des Begriffes Klimaänderung war der erste große Betrug

Die Menschen sind betrogen worden, als das IPCC gegründet wurde. Die meisten glauben, dass es sich um einen regierungsamtlichen Untersuchungsausschuss handelt, der alles zur Klimaänderung untersuchen soll. Die aktuelle Definition vom United Nations Environment Program [Umweltprogramm der UN] (Artikel 1) des UNFCCC begrenzt diesen ausschließlich auf menschliche Ursachen.

„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

In einem anderen Betrug haben sie die in den ersten drei Berichten (1990, 1995, 2001) verwendete Definition im Bericht 2007 geändert. In der Summary for Policymakers ist das eine Fußnote.

„Klimaänderung nach Lesart des IPCC bezieht sich auf jedwede Änderung des Klimas mit der Zeit, erfolge diese nun aufgrund natürlicher Variabilität oder als Folge menschlicher Aktivitäten. Diese Definition unterscheidet sich von der des UNFCCC, in der eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

Diese Definition fand aber keine Anwendung, weil die Zustandsberichte aufeinander aufbauen. Eine Einbeziehung der natürlichen Variabilität hätte einen völligen Neustart erforderlich gemacht.

Es ist unmöglich, den menschlichen Beitrag zur Klimaänderung zu bestimmen, wenn man die natürlichen (nicht-menschlichen) Klimaänderungen nicht kennt oder nicht versteht. Professor Murray Salby zeigte, wie der menschliche Anteil des CO2 bedeutungslos ist, und dass Variationen bei den natürlichen CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigte, dass eine Änderung um 5% aus diesen Quellen mehr ist als die gesamte menschliche Erzeugung.

2        Das IPCC zieht Rückschlüsse und will eine Hypothese unbedingt beweisen

Um dieses Verfahren wissenschaftlich aussehen zu lassen, wurde eine Hypothese konstruiert, die auf folgenden Annahmen basierte:

● CO2 ist ein Treibhausgas (GHG), das die Rückstrahlung von Wärme von der Erde behindert.

● die Wärme wurde auf die Erde zurück gestrahlt und hat die globale Temperatur steigen lassen.

● Nimmt das CO2 zu, steigt die globale Temperatur.

● Der CO2-Gehalt nimmt zu aufgrund der sich immer mehr erweiternden industriellen Aktivitäten.

● Der globale Temperaturanstieg war unvermeidlich.

Um noch sicherer zu machen, dass auch das gewünschte Ergebnis herauskommt, hat sich das IPCC daran gemacht, diese Hypothese zu untermauern, anstatt zu versuchen, sie zu widerlegen, wie es die wissenschaftliche Methode erfordert. Wie Karl Popper gesagt hat:

„Die Regel gibt vor, dass die anderen Regeln wissenschaftlicher Verfahren so gestaltet sein müssen, dass sie nicht irgendein Statement der Wissenschaft vor der Falsifikation schützen“.

Das beständige und unermessliche Verhalten des IPCC enthüllt falsche Interpretationen bzgl. CO2. Sobald ein Umstand von Wissenschaftler auftauchte, die ihrer Rolle als Skeptiker gerecht geworden waren, hat das IPCC nicht etwa die Gültigkeit und Wirksamkeit dieser Dinge in Betracht gezogen und getestet, sondern es arbeitete daran, diese Dinge zu zerstreuen, selbst mittels einiger falscher Erklärungen. Diese falschen Antworten waren erfolgreich, weil die meisten Menschen gar nicht wussten, dass sie falsch waren.

3 Fakten über CO2 sind den meisten unbekannt, aber problematisch für das IPCC

Einige grundlegende Fakten über CO2 sind den meisten Menschen unbekannt und illustrieren die Diskrepanzen und Unterschiede zwischen den Behauptungen des IPCC und dem, was die Wissenschaft weiß.

● Der Anteil des natürlichen CO2-Niveaus in der Atmosphäre liegt derzeit unter 0,04% und bei 0,4% aller Treibhausgase. Es ist nicht das bedeutendste Treibhausgas.

● Wasserdampf macht durch Volumen 95% aller Treibhausgase aus. Es ist bei Weitem das bedeutendste Treibhausgas.

● Methan (CH4) ist ein anderes natürliches Treibhausgas, das vom IPCC dämonisiert wurde. Es hat nur einen Anteil von 0,000175% an der ganzen Atmosphäre und 0,036% an den Treibhausgasen.

● Abbildung 1 von ABC News zeigt die falsche Information. Diese Darstellung gilt nur für eine trockene Atmosphäre.

Abbildung 1

● Diese Prozentanteile machten dem IPCC Sorgen. Also hat es die Bedeutung des CO2 vergrößert, indem ein „Beitrag“ pro Einheit geschätzt wurde (Abbildung 2). Die Bandbreite der Schätzungen macht die Messungen effektiv bedeutungslos, es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen genauen Prozentanteil am Treibhauseffekt hat“.

Abbildung 2 (Quelle: Wikipedia)

4 Die menschliche Produktion von CO2 ist kritisch für die IPCC-Objektive. Daher kontrolliert es die Informationen.

Die Erklärung lautet:

Welche Rolle spielt das IPCC bei der Bestandsaufnahme von Treibhausgasen und bei den Berichten an das UNFCCC?

A: Das IPCC hat eine Reihe von Verfahrensberichten zur Bestandsaufnahme nationaler Treibhausgas-Emissionen erzeugt mit der Absicht, international akzeptable Methoden für diese Bestandsaufnahme zur Verfügung zu stellen. Das IPCC übernimmt die Verantwortung, wissenschaftliche und technische Ratschläge zu speziellen Fragen zu erteilen, die mit diesen Methoden der Bestandsaufnahme zusammen hängen oder auf Anforderung des UNFCCC in Übereinstimmung mit etablierten IPCC-Verfahren. Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) [etwa: Programm zur Bestandsaufnahme von Treibhausgasen] zu betreiben, um diese Ratschläge zum Verfahren zu geben. Die Parteien im UNFCCC stimmen überein, die IPCC-Richtlinien bei den Berichten an die Convention zu verwenden.

Wie erstellt das IPCC seine Richtlinien für die Bestandsaufnahme? Unter Verwendung von Methoden des IPCC entwerfen benannte Experten aus der ganzen Welt die Berichte, die dann zweimal extensiv begutachtet werden, bevor sie das IPCC absegnet. Dieses Verfahren stellt sicher, dass die größtmögliche Vielfalt von Meinungen in die Dokumente einfließen.

Es kontrolliert den gesamten Prozess, die Verfahrensweise, die Benennung technischer Ratschläge, die Etablierung von Arbeitsgruppen, Richtlinien für die Berichterstattung, Benennung der Experten, die die Berichte erzeugen bis zur schließlichen Absegnung der Endfassung. Die Zahlen, die sie erzeugen, sind eine Hochrechnung, aber man schätzt, dass Menschen von dieser Zahl 50% entfernen.

Wie auch immer, wenn man die natürlichen Quellen und die Variabilität von CO2 nicht kennt, kann man den menschlichen Anteil nicht ermessen. Man hat behauptet, dass der Anteil in der Atmosphäre durch Verbrennung fossiler Treibstoffe bekannt sei aus dem Verhältnis der Kohlenstoff-Isotope C13/C12. Roy Spencer hat gezeigt, dass dies nicht der Fall war. Außerdem wird die natürliche Verbrennung fossiler Treibstoffe ignoriert, als da wären Waldbrände oder langlebige Kohle- und Torfbrände. Hans Erren zufolge ist fossile Kohle in der Erde begrabenes Holz. Spencer kam zu dem Ergebnis:

Wenn das Verhältnis C13/C12 durch der NATÜRLICHEN Variabilität von Jahr zu Jahr geschuldet ist, wie können dann welche behaupten, dass das Trendsignal VOM MENSCHEN VERURSACHT ist?

Antwort: Um die Hypothese zu beweisen und den Betrug fortzuführen.

5 Druck für dringende politische Maßnahmen

In früheren IPCC-Berichten wurde behauptet, dass die Zeit des Verbleibens von CO2 in der Atmosphäre sehr lang sei. Dies implizierte, dass es weiterhin ein Problem sein würde, selbst bei sofortiger Einstellung aller CO2-Emissionen. Allerdings hat Segalstad geschrieben:

Essenhigh (2009) weist darauf hin, dass das IPCC in seinem ersten Bericht (Houghton et al. 1990) eine CO2-Verweildauer von 50 bis 200 Jahren angegeben hatte (als eine „grobe Schätzung“). Diese Schätzung wird verwirrend als eine Anpassungszeit für ein Szenario mit einem gegebenen menschlichen CO2-Input genannt und ignoriert natürliche CO2-Flussraten (durch Ozean und Vegetation). Solche Schätzungen sind analytisch unsinnig und stehen in Konflikt mit einer korrekteren Erklärung an einer anderen Stelle im gleichen IPCC-Bericht: „Dies bedeutet, dass es im Mittel nur wenige Jahre dauert, bis ein CO2-Molekül in der Atmosphäre durch Pflanzen aufgenommen oder im Ozean gelöst wird“.

6 Verfahren, um Probleme mittels IPCC-Wissenschaft zu verschleiern und den Alarmismus zu erhöhen

IPCC-Verfahren wurden zum Zwecke des Betrugs entwickelt. Das IPCC hat drei Arbeitsgruppen (WG). WG 1 erstellt den Physical Science Basis Report, in welchem bewiesen wird, dass CO2 die Ursache ist. WG 2 erstellt den Impacts, Adaptation and Vulnerability Report [Auswirkungen, Anpassung und Verwundbarkeit]. Er basiert auf dem Bericht von WG 1. WG 3 erstellt den Bericht zur Abschwächung des Klimawandels. Die Arbeitsgruppen 1 und 2 akzeptieren die Behauptung der WG 1, dass die Erwärmung unvermeidlich ist. Sie stellen fest:

Es werden fünf Kriterien für Klimaszenarien gelistet, falls sie für Folgenforscher und Politiker für Entscheidungen nützlich sind: Kriterium 1: Konsistenz mit den globalen Projektionen. Sie sollten konsistent sein mit einer großen Bandbreite von Projektionen der globalen Erwärmung aufgrund zunehmender Konzentrationen von Treibhausgasen. Diese Bandbreite wird in verschiedenen Quellen angegeben mit 1,4°C bis 5,8°C bis zum Jahr 2100 oder 1,5°C bis 4,5°C bei einer Verdoppelung der atmosphärischen CO2-Konzentration (anderswo bekannt als die „Gleichgewichts-Klimasensitivität“).

Sie wussten, dass nur Wenige den wissenschaftlichen Bericht mit seinen eingeräumten ernsten Grenzen lesen oder verstehen würden. Sie haben dessen Veröffentlichung absichtlich verzögert bis nach dem Erscheinen der Summary for Policymakers. David Wojick erklärt:

Unübersehbare Auslassungen sind nur für Experten unübersehbar. Daher werden die „Politiker“ – einschließlich der Medien und der Öffentlichkeit –, die den SPM lesen, nicht erkennen, dass man ihnen nur die eine Seite der Medaille nahebringt. Aber die Wissenschaftler, die den Bericht entworfen haben, kennen die Wahrheit, wie die mitunter sehr kunstvollen Versuche ihrerseits belegen, diese Wahrheit zu verschleiern.

Was systematisch in dem SPM  ausgelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die die Theorie der anthropogenen Einmischung widerlegen könnten. Anstatt diesen Einwänden nachzugehen, stehen in der Summary nur jene Ergebnisse, die die Theorie stützen. Kurz gesagt, dass ist Ideologie, keine Wissenschaft.

Ein Beispiel für diesen Betrug in der SPM liefert der Bericht aus dem Jahr 1995. Im Bericht 1990 und dem Entwurf 1995 hieß es, dass es keine Beweise für einen menschlichen Einfluss gibt. Benjamin Santer hat als Leitautor von Kapitel 8 den Entwurf 1995 seiner Mitautoren ohne deren Wissen verändert. Sie hatten gesagt:

„Während einige der hier diskutierten Dinge die Entdeckung einer signifikanten Klimaänderung behauptet haben, konnte bislang noch keine Studie positiv nachweisen, dass die gesamte Klimaänderung oder ein Teil davon anthropogenen Ursachen zugeordnet werden kann“.

Ben Santer machte daraus:

„Die Masse der statistischen Beweise in Kapitel 8 deuten jetzt auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin, wenn man diese Beweise im Zusammenhang unseres physikalischen Verständnisses des Klimasystems untersucht“.

Die Phrase „erkennbarer menschlicher Einfluss” machte es wie geplant in die Schlagzeilen.

Mit dem AR 5 verschlimmerten sie den Betrug durch die Veröffentlichung einer SPM, der sie eine Korrektur folgen ließen. Sie bekamen die gewollte Schlagzeile. Es ist das gleiche Spiel wie der Unterschied zwischen der Bloßstellung der Probleme im Wissenschaftsreport der WG 1 und der SPM. Die Medien haben nicht über die Korrekturen berichtet, aber das IPCC konnte jetzt behaupten, dass es die Unzulänglichkeiten ihres Berichtes aufgelistet hat. Es ist nicht ihre Schuld, dass die Leute das nicht verstehen.

7 Klimasensitivität

Ursprünglich hatte man angenommen, dass ein konstant steigender atmosphärischer CO2-Gehalt zu einer konstant steigenden Temperatur führen würde. Dann wurde berechnet, dass die ersten paar ppm die Treibhausgas-Kapazität von CO2 bereits erreicht haben. Eschenbach hat die Wirklichkeit dargestellt:

Abbildung 3

Es ist wie schwarze Farbe auf einem Fenster. Um durch ein Fenster fallendes Sonnenlicht abzuschirmen, wird die erste Schicht schwarzer Farbe dazu den Löwenanteil beitragen. Folgeschichten reduzieren das Sonnenlicht nur noch wenig.

Es gab sofort Uneinigkeit über die Höhe der Klimasensitivität durch eine Verdoppelung oder Verdreifachung des atmosphärischen CO2-Gehaltes. Milloy hat eine Graphik konstruiert, der die drei unterschiedlichen Sensitivitäts-Schätzungen miteinander vergleicht (Abbildung 4):

Abbildung 4.

Das IPCC erzeugte eine positive Rückkopplung, um die Temperaturen weiter steigen zu lassen. Es behauptet, dass CO2 zu einer Temperaturzunahme führt, was zu vermehrter Verdunstung führt, und Wasserdampf verstärkt den Temperaturtrend. Lindzen und Choi haben dies in ihrer Studie aus dem Jahr 2011 widerlegt und kamen zu dem Ergebnis, dass „die Ergebnisse zeigen, dass die Modelle die Klimasensitivität übertreiben“.

Die Klimasensitivität hat seitdem immer weiter abgenommen und nähert sich allmählich Null. In einer kürzlichen Studie von Spencer wird behauptet, dass „…das Klimasystem nur halb so sensitiv auf CO2 reagiert wie ursprünglich angenommen“.

8 Die Eisbohrkerne waren grundlegend, aber voller ernster Fehler

Die wesentliche Annahme der abgeleiteten IPCC-Hypothese sagt, dass eine CO2-Zunahme eine Temperaturzunahme bedingt. Nach der Veröffentlichung von Petit et al. (1999) erschienen die Eisbohrkerne aus der Antarktis als Beweis im Bericht 2001 (Abbildung 5):

Abbildung 5. Antarktischer Eisbohrkern

Vier Jahre später ergaben Forschungen das Gegenteil – eine Temperaturzunahme war einer CO2-Zunahme stets vorausgegangen, was ein klarer Widerspruch zur Hypothese war. Dies wurde beiseite geschoben mit der ablenkenden Behauptung, dass der Zeitverzug 80 bis 800 Jahre betrug und damit nicht signifikant sei. Das war so verstörend, dass Al Gore in seinem Film ein betrügerisches Bild erzeugte. Nur wenige Experten haben das bemerkt.

Tatsächlich ändert sich die Temperatur vor einer Änderung des CO2-Gehaltes in jeder Aufzeichnung für jede Periode oder jeden Zeitraum. Abbildung 6 zeigt einen kürzeren Zeitraum (1958 bis 2009) dieses Verhältnisses. Falls eine CO2-Änderung in jeder Aufzeichnung einer Temperaturänderung nachfolgt, warum sind dann alle Computermodelle mit der gegenteiligen Beziehung programmiert worden?

Abbildung 6: Verzögerung für einen kurzen Zeitraum, 1958 bis 2009.

Das IPCC brauchte niedrige vorindustrielle CO2-Niveaus

Ein präindustrielles CO2-Niveau, niedriger als heute, war unabdingbar für die IPCC-Hypothese. Es war genauso nötig wie die Eliminierung der Mittelalterlichen Warmzeit, weil diese gezeigt hat, dass es heute eben nicht wärmer als jemals zuvor war.

Eisbohrkerne sind nicht die einzigen Quellen, die Aufschluss über den präindustriellen CO2-Gehalt geben. Es gibt Tausende direkte Messungen des atmosphärischen CO2-Gehaltes schon im 19. Jahrhundert, genauer seit dem Jahr 1812. Wissenschaftler haben genaue Messungen mit kalibrierten Instrumenten durchgeführt, wie Ernst Beck sorgfältig dokumentiert hat.

In einer an das US Senate Committee on Commerce, Science, and Transportation Hearing übermittelten Studie hat Professor Zbigniew Jaworowski festgestellt:

“Die Basis der meisten IPCC-Ergebnisse bzgl. anthropogener Gründe und Projektionen der Klimaänderung ist die Annahme eines niedrigen CO2-Gehaltes in der präindustriellen Atmosphäre. Diese Annahme ist glaziologischen Studien zufolge falsch“. [1]

Gleichermaßen bedeutsam ist Jaworowskis weitere Feststellung:

Die Auffassung eines niedrigen vorindustriellen CO2-Niveaus, die auf so wenig Wissen beruht, wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise direkter Messungen von CO2 in der Luft, die zeigen, dass die mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (11), Abbildung 2. In Abbildung 2 zeigen die eingekreisten Werte eine verzerrte Auswahl von Daten, die verwendet worden sind um zu zeigen, dass das atmosphärische CO2-Niveau im 19. Jahrhundert 292 ppmv betragen hatte (12). Eine Studie von Stomata in fossilen Blättern aus dem Holozän in Ablagerungen in einem See in Dänemark zeigen, dass der CO2-Gehalt der Atmosphäre vor 9400 Jahren 330 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept eines stabilen und niedrigen CO2-Gehaltes der Luft bis zum Einsetzen der industriellen Revolution (13).

Es gibt noch andere Probleme bei den Aufzeichnungen in Eisbohrkernen. Es braucht Jahre, um Luft im Eis einzuschließen. Was also wurde tatsächlich eingefangen und gemessen? Schmelzwasser, das sich durch das Eis gearbeitet hat, vor allem im oberflächennahen Eis kann die Luftblasen kontaminieren. Bakterien innerhalb des Eises setzen sogar Gase in 500.000 Jahre altem Eis in größeren Tiefen frei. (Dissertation von Brent C. Christner 2002 mit dem Titel [übersetzt]: „Auffinden, Bergung, Isolation und Charakterisierung von Bakterien in Gletschereis und Eis aus dem Wostok-See“). Der Druck des darüber liegenden Eises verursacht eine Änderung in Tiefen unter 50 m, und brüchiges Eis wird plastisch und beginnt zu fließen. Die Schichten, die sich jedes Jahr mit dem Schneefall gebildet haben, verschwinden mit zunehmendem Druck. Man benötigt eine beträchtliche Dicke des Eises über einen langen Zeitraum, um eine einzelne Ablesung in der Tiefe durchführen zu können.

Jaworowski identifizierte die Probleme durch Kontamination und Verlusten während des Bohrungs- und Bergungsprozesses des Eiskerns.

Jaworowskis Behauptung, dass die Modellierer die Messungen des 19. Jahrhunderts ignoriert haben, ist nicht richtig. Sie wussten es, weil T. R. Wigley die Informationen über die Messungen im 19. Jahrhundert schon 1983 zur Verfügung stellte. (Wigley, T.M.L., 1983 “The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Allerdings hat er Werte willkürlich au seiner großen Bandbreite herausgepickt, durchweg hohe Messwerte eliminiert und das vorindustrielle CO2-Niveau von etwa 270 ppm ‘erzeugt’. Ich nehme an, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen zusammen gearbeitet hat als Direktor der Climatic Research Unit CRU in East Anglia. Er war der Vorgänger von Phil Jones und war die Schlüsselfigur, der die durch die Klimagate-E-Mails enthüllten Machenschaften dirigiert hatte.

Wigley war nicht der erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat sie erneut in die Klimagemeinschaft eingeführt. Guy Stewart Callendar, ein britischer Dampftechnik-Ingenieur, brachte die These voran, dass zunehmendes CO2 zu Erwärmung führt. Er tat das, was Wigley getan hat, nämlich nur die Daten auszuwählen, die die Hypothese stützen.

Es gibt 90.000 Messwerte aus dem 19. Jahrhundert, und die Graphik zeigt die sorgfältig von G. S. Callendar ausgewählten Werte, um seine Schätzung zu stützen. Es ist eindeutig, dass er ausschließlich niedrige Werte ausgewählt hat.

Abbildung 7 (nach Jaworowski, Trendlinien hinzugefügt)

Man kann die Änderungen der Neigung und des Trends erkennen, wenn man die ausgewählten Daten mit der Gesamtzahl der Daten vergleicht.

Ernst-Georg Beck bestätigte Jaworowskis Forschungen. In einem Artikel in Energy and Environment wurden die Messwerte sehr detailliert untersucht und die Ergebnisse validiert. Beck kommt zu dem Ergebnis:

Die moderne Treibhaushypothese basiert auf den Arbeiten von G. S. Callendar und C. D. Keeling. Sie folgen damit S. Arrhenius, der vom IPCC popularisiert worden ist. Die Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Anzahl technischer Studien aussortiert und ältere Bestimmungen des atmosphärischen CO2-Gehaltes verworfen haben, weil diese nicht zu ihrer Hypothese passten. Offensichtlich haben sie nur ein paar sorgfältig ausgesuchte Werte aus der älteren Literatur verwendet und ausnahmslos Ergebnisse gewählt, die mit der Hypothese eines CO2-Anstiegs infolge Verbrennung fossiler Treibstoffe konsistent sind.

Das vorindustrielle Niveau liegt um etwa 50 ppm höher als behauptet.

Beck weiter:

„Seit 1812 hat die CO2-Konzentration der Luft in der Nordhemisphäre fluktuiert mit drei Maxima um die Jahre 1825, 1857 und 1942, wobei im letzteren Jahr 400 ppm vorhanden waren“.

Die Herausforderung für das IPCC bestand darin, einen gleitenden Übergang zu erzeugen vom CO2-Niveau in den Eisbohrkernen zu dem auf dem Mauna Loa gemessenen Niveau. Beck zeigte, wie man das gemacht hat, und auch, wie die Messungen des des 19. Jahrhunderts willkürlich ausgewählt werden mussten, um zu den Eisbohrkern- und den Mauna Loa-Daten zu passen (Abbildung 8).

Abbildung 8

Die Variabilität ist extrem wichtig, weil der Eisbohrkern einen außerordentlich glatten Verlauf zeigt, der mittels einer Mittelung über 70 Jahre erreicht worden ist. Selektion und Glättung wurde auch auf die Mauna Loa-Daten angewendet sowie auf alle atmosphärischen Messungen in jüngster Zeit, die auf natürliche Weise im Verlauf eines Tages bis zu 600 ppm variieren. Die Glättung im Maßstab wie bei dem Eisbohrkern eliminiert eine große Menge an Information. Man betrachte die Variabilität der Temperatur der letzten 70 Jahre. Der Statistiker William Brigg sagt, dass man niemals, niemals eine Zeitreihe glätten darf. Die Eliminierung hoher Werte vor der Glättung bringt noch größere Verluste. Beck erklärt, wie Charles Keeling die Mauna Loa-Daten bearbeitet hat, indem er die niedrigsten Messwerte des Nachmittags verwendete und natürliche Quellen ignoriert hat. Beck vermutet, dass Keeling beschlossen hat, diese natürlichen Quellen zu vermeiden, indem er den Messpunkt 4000 m hoch auf dem Vulkan errichtet hat. Beck:

Der Mauna Loa repräsentiert nicht den typischen atmosphärischen CO2-Gehalt in verschiedenen globalen Gebieten, sondern die Werte sind nur typisch für diesen Vulkan in einem Meeresgebiet in einer Höhe von 4000 m in dieser geographischen Breite“. (Beck 2008, „50 Years of Continuous Measurement of CO2on Mauna Loa” Energy and Environment, Vol. 19, No.7.)

Keelings Sohn betreibt jetzt die Messungen am Mauna Loa und, wie Beck anmerkt, „er besitzt das globale Monopol bei der Kalibrierung aller CO2-Messungen“. Er ist Mitautor der IPCC-Berichte, und das IPCC betrachtet alle Messungen am Mauna Loa als repräsentativ im globalen Maßstab.

Als Klimatologe weiß ich um die Notwendigkeit, so viele unabhängige Verifikationen der Daten wie möglich zu erhalten. Stomata sind kleine Öffnungen an Blättern, deren Größe direkt mit der Menge des atmosphärischen CO2 variiert. Sie unterstreichen die Auswirkungen von Glättung und der künstlich niedrigen Ablesungen in den Eisbohrkernen. Ein Vergleich der Stomata mit einem Eisbohrkern über einen Zeitraum von 2000 Jahren (9000 bis 7000 v. Chr.) illustriert dies (Abbildung 9):

Abbildung 9.

Daten aus Stomata zeigen höhere Werte und Variabilität als der exzessiv geglättete Eisbohrkern. Sie passen quantitativ zu den Messungen des 19. Jahrhunderts, wie Jaworowski und Beck zeigen. Das mittlere Niveau des Eisbohrkerns zeigt etwa 265 ppm, während die Stomata etwa 300 ppm nahe legen.

Das vorindustrielle CO2-Niveau war marginal geringer als jetzt und liegt wahrscheinlich innerhalb der Fehlergrenze. Weder diese Werte noch der gegenwärtige Wert von 400 ppm ist hoch im Vergleich mit der geologischen Vergangenheit. Der gesamte Output der Computer-Klimamodelle beginnt mit der Vermutung, dass das vorindustrielle Niveau messbar geringer ist. Die Eliminierung dieser Hypothese unterminiert die Behauptung noch weiter, dass die Erwärmung während der Periode der Industrialisierung Folge einer Freisetzung anthropogenen CO2 in die Atmosphäre war. Man kombiniere dies mit der IPCC-Behauptung, dass CO2 eine Temperaturzunahme bewirkt, wenn alle Aufzeichnungen das Gegenteil zeigen, dann ist es keine Überraschung, dass die IPCC-Vorhersagen steigender Temperaturen konsistent falsch sind.

Der IPCC-Betrug ist vorsätzlich geplant worden, und zwar unter Maurice Strongs Anleitung, um zu beweisen, dass CO2 eine globale Erwärmung hervorruft, was als Begründung für die Schließung industrieller Nationen herhalten muss. Sie haben ihr Ziel teilweise erreicht, wie alternative Energien und grüne Arbeitsplätze belegen. All dies passiert vor dem Hintergrund immer weiter zunehmender Beweise gegen die Hypothese, weil sich die Natur mitzuspielen weigert. CO2 steigt, während die Temperatur fällt, was dem IPCC zufolge nicht sein kann. Politiker müssen nach den Fakten handeln und alle politischen Maßnahmen zurückweisen, die auf der Behauptung basieren, dass CO2 ein Problem ist; vor allem die Maßnahmen, die schon jetzt große Schäden verursachen.

Quelle: The Global Warming Policy Foundation: CCNet 14/10/13

1. [1] “Climate Change: Incorrect information on pre-industrial CO2” Statement written for the Hearing before the US Senate Committee on Commerce, Science, and Transportation by Professor Zbigniew Jaworowski March 19, 2004

Link: http://wattsupwiththat.com/2013/11/13/why-and-how-the-ipcc-demonized-co2-with-manufactured-information/#more-97390

Übersetzt von Chris Frey EIKE




Die Pleite von Warschau: Erlebt Greenpeace gerade sein Warschaugrad?

Bei langdauernden kriegerischen Auseinandersetzungen gibt es zeitweise lange Perioden, in den sich die Gegner in verlustreichen Kämpfen gegenseitig zermürben, ohne dass e seiner Seite gelingt, dem Gegner jenen entscheidenden Schlag zu versetzen, der die Balance des Krieges zugunsten der eigenen Seite neigt. Und dann kommt es oft ganz überraschend zu einem Schlüssel-Ereignis, von dem man oft erst hinterher feststellt, dass es sich dabei um den entscheidenden Wendepunkt handelt, ab dem eine der Seiten nicht mehr die Kraft findet, ihren Gegner wirklich zu gefährden. Ab diesem Moment hat die unterlegen Seite ihre Initiative verloren, muss sich im Wesentlichen auf Defensivmaßnahmen beschränken und kann nur darauf hoffen, dass der Gegner eher bereit ist, einen für ihn vorteilhaften Friedensdeal zu akzeptieren als die enormen Kosten und Risiken einer Fortsetzung des Krieges einzugehen. Einer der bekanntesten Wendepunkte des zweiten Weltkriegs war die Schlacht um Stalingrad, der Punkt, an dem der Vormarsch der bisher anscheinend unaufhaltsamen deutschen Kriegsmaschine gestoppt werden konnte. Die weitere Entwicklung ist bekannt: Der langsame, aber unaufhaltsame Zusammenbruch der deutschen Ostfront bis zur Eroberung Berlins und dem Ende des dritten Reichs.

Nach einer langen und erbitterten Schlacht um die öffentliche Meinung…

Durchaus vergleichbare Wendepunkte der Auseinandersetzung findet man auch bei großen kontrovers geführten Debatten auf geistig-politischem Gebiet. Und mit Blick auf die jahrzehntelangen Bemühungen von Greenpeace, WWF und ihrer zahllosen NGO-Spießgesellen um die Kontrolle der öffentlichen Meinung bezüglich der angeblichen Globalen Erwärmung durch vom Menschen verursachte CO2-Emissionen scheint ein solcher Wendepunkt gerade erreicht worden zu sein. Die UN-Veranstaltung in Warschau, auf der eigentlich weitergehende Maßnahmen zur Verringerung dieser Emissionen hätten beschlossen werden müssen, erlebte eine Reihe klarer Absagen wichtiger Industrienationen, die an dieser Scharade nicht mehr teilnehmen wollen. Andere gaben zwar fleißig Lippenbekenntnisse zur edlen Aufgabe der Rettung des Planeten und des Klimas ab, hielten sich jedoch bei konkreten Zusicherungen auffällig zurück.

Vielleicht werden Historiker, welche die realen Dimensionen des Schlags, den die CO2-Alarmisten in Warschau erhalten haben, in einem leicht fasslichen Schlagwort fassen wollen, hierfür Begriff Warschaugrad prägen. Nach dem quasi vollständigen Scheitern des eigentlichen Hauptziels der Veranstaltung, der Weiterführung von Massnahmen zur Reduzierung des CO2-Ausstoßes, richtete sich die Aufmerksamkeit fast ausschließlich auf finanzielle Aspekte. Dabei ging es letztlich darum, wie hoch die Kompensationszahlungen reicher Nationen sein sollten, welche die ärmeren Länder als Ausgleich für angeblich vom CO2-Ausstoß der Reichen verursachten Schäden durch Klimakatastrophen einfordern konnten. Dabei wurden selbst Ereignisse wie Tornados und Hurrikane, welche eindeutig nicht dem CO2 in die Schuhe geschoben werden können, als Argument aufgeführt. Möglicherweise wird die Liste bei kommenden Veranstaltungen noch um Asteroideneinschläge, Vulkanausbrüche, Erdbeben und Tsunamis erweitert werden…

Fakt ist: Die Veranstaltung degenerierte zu einem reinen Gezänk ums Geld und wurde vor einem vollständigen Scheitern nur durch einen Formelkompromiss sowie einen Trick der EU-Vertreter bewahrt, welche den ärmsten Ländern schnell noch 100 Mio. € zuschoben, woraufhin diese umfielen. Wie üblich durfte Deutschland dabei den Zahlmeister spielen, indem es dazu rund 1/3 der Gesamtsumme beisteuerte.

..scheint die CO2-Lüge an Strahlkraft zu verlieren

Die klare Botschaft von diesem kläglichen Ausgang und dem entsprechenden Echo in den Medien dürfte die sein, dass die von Greenpeace und ihren zahlreichen Verbündeten in staatlichen Institutionen, wissenschaftlichen Einrichtungen und den Medien vertretene Lüge über den angeblich nachteiligen Einfluss des CO2 auf das Klima offensichtlich an Strahlkraft verliert. Die Gier allzu zahlreicher Profiteure hat inzwischen zu einem derartigen Ausmaß an Kosten und einem wachsenden Rattenschwanz an technischen Problemen in Schlüsselindustrien geführt, dass es zu einem Schwenk der öffentlichen Meinung zumindest in einigen aufgeklärteren Ländern wie Australien gekommen ist. Natürlich wurde, ganz wie auch im oben angeführten historischen Beispiel, der letzte Schuss noch nicht abgefeuert bzw. das letzte Wort noch nicht gewechselt, aber von jetzt an dürften sich die Vertreter der Theologie von der menschengemachten globalen Erwärmung (Anthropogenic Global Warming, AGW) auf dem absteigenden Ast befinden.

Während einige führende Politiker wie Fr. Merkel immer noch eisern an dem einmal eingeschlagenen Kurs in der Energiepolitik festhalten, wird es insgesamt doch immer deutlicher, dass eine wachsende Zahl wichtiger Länder wie Kanada, Australien und Japan bereits dabei sind, den Ausstieg aus dem Klima- und CO2-Unsinn zu vollziehen. Und mit diesen ersten Rissen im bisher dichten ideologischen Bollwerk, das die Zweifel der Skeptiker – oft auch als Klimaleugner verunglimpft – zurückhalten sollte, dürfte die weitere Entwicklung ähnlich beschleunigt verlaufen wie bei einem Dammbruch. Möglicherweise kommt es zu einer regelrechten Stampede hochqualifizierter Schwätzer und akademischer Scharlatane, die aus den bisher sicher geglaubten Pöstchen im Staatsapparat und in NGO’s herausgespült werden und sich gezwungen sehen, hektisch nach neuen Betätigungsfeldern zu suchen.

Greenpeace sucht bereits nach neuen Geschäftsmodellen

Ein ziemlich deutliches Signal, dass die Führungskader bei Greenpeace und anderen NGO’s diese Gefahr bereits erkannt haben, zeigt sich in den offenkundigen Bemühungen um die Aktivierung neuer Geschäftsfelder. Entsprechende Versuchsballons werden zur Zeit von prominenten Vertretern der Organisation wie Monika Griefahn z.B. in Fernsehinterviews lanciert. Angesichts einer Situation, in der die Öffentlichkeit die Lust daran zu verlieren scheint, immer mehr Geld in dem „schwarzen Loch“ der CO2-Bekämpfung zu versenken, werden offensichtlich neue Themen gesucht, mit denen man vorgeben kann, den Planeten vor der Menschheit zu retten, wobei die Aufrechterhaltung des bisherigen Zuflusses an Spendengeldern eine zentrale Rolle spielt. Zu den Aufgabenstellungen, die sich hierfür eignen dürften, gehört das Thema Plastikmüll in den Ozeanen. Hierzu wurden auch schon unterschiedliche Varianten entwickelt, beispielsweise Mikro-Plastikpartikel, die über die Nahrungskette wieder in die menschliche Nahrung gelangen, oder die Vergiftung von Fischlebern durch Plastik-Inhaltsstoffe. Andere Themen, die in letzter Zeit eher auf Sparflamme gehalten wurden, aber jederzeit wieder reaktiviert werden können sind beispielsweise Feinstäube, Pharmazierückstände in Flüssen oder auch die Geräuschpegel, welche mit gewerblichen Aktivitäten sowie dem Transport von Menschen und Gütern unvermeidlicherweise auftreten, Stichwort z.B. Frankfurter Flughafen. Man darf gespannt sein, mit welchen Argumenten die Herrschaften uns wieder die Bettelschale vorhalten werden, wenn die CO2-Masche irgendwann gar nicht mehr zieht.

Chinas Cleverness

Wenn man sich in Erinnerung ruft, wie sich die Schuldzuweisungen bezüglich der CO2-Emissionen bei solchen UN-Konferenzen in den letzten zwei Jahrzehnten entwickelt haben, so muss man seinen Hut vor der Cleverness ziehen, mit der China es geschafft hat, sich aus der Schusslinie zu bringen. Und das trotz der Tatsache, dass das Land im Rahmen seiner bemerkenswerten wirtschaftlichen Expansion inzwischen zum weltweit grössten CO2-Emittenten aufgestiegen ist. Dennoch hatte es in diesem Jahr geschafft, derartigen Vorwürfen nahezu völlig zu entgehen. Erreicht wurde dies durch die Schaffung einer Allianz aus ärmeren und in Entwicklung befindlichen Ländern, die sich durch aggressive Forderungen nach Kompensationszahlungen in mehrstelliger Milliardenhöhe von westlichen Industrieländern hervortat, während sie in ihrer Mitte CO2-Gorillas wie China und auch Indien abschirmten. Nach Ansicht einiger Beobachter gelang es selbst den Diplomaten der USA lange Zeit nicht, in diese Einheitsfront einen Keil zu treiben. Erst die Europäer schafften es in letzter Sekunde, mithilfe einer Zusage von 100 Mio. € die ärmsten Länder aus dieser Gruppierung auf ihre Seite zu ziehen. Dennoch blieb China das mediale Spießrutenlaufen, dem sich andere Teilnehmer ausgesetzt sahen, weitgehend erspart. Man darf gespannt sein, welche Lehren die Meister des Lächelns und der leisen Töne aus dieser Erfahrung ziehen und bei der nächsten Konferenz einsetzen werden.

Wohin geht das das kluge Geld?

Eine weitere interessante Entwicklung, die man parallel zum Verlauf des Warschauer Gipfels beobachten konnte, war eine Änderung im Investitionsverhalten der Börsen als mögliche Reaktion auf das Debakel der AGW-Vertreter. Man mag zu Börsianern stehen wie man will, aber sie sind Meister im Aufspüren künftiger Trends. Zwar kann es noch Jahre dauern, bis sich die Klimarettungsambitionen heute führender Politiker wie der EU-Kommissarin Conny Hedegaard oder des Präsidenten Obama abgenutzt haben. Diese Leute haben sich unter Missachtung der Gesetze der Physik, der Märkte und des gesunden Menschenverstandes viel zu tief in diese Sackgasse verrannt, als dass sie jetzt noch ohne Gesichtsverlust zurück könnten. Doch das kluge Geld scheint schon jetzt die Botschaft verstanden zu haben: Aktien von Uranminen, die seit den Ereignissen von Fukushima ständige Kursverluste erlitten haben, weisen plötzlich teils erhebliche Kurssteigerungen auf. Dies mag sehr wohl ein Signal dafür sein, dass die bisherige Talfahrt gestoppt wurde und eine Bodenbildung stattgefunden hat. Zusammen mit Nachrichten wie der, dass in Spanien – einst ambitionierter Vorkämpfer für „erneuerbare“ Energien – Betreiber von Fotovoltaikanlagen für den Eigenbedarf künftig eine spezielle Gebühr bezahlen sollen, solange sie zur Absicherung ihrer Gesamtversorgung ihren Anschluss an das Stromnetz aufrechterhalten, könnte dies vielleicht dazu führen, dass Bankfinanziers nach und nach „Erneuerbare“ Projekte als riskant einstufen. Auf der anderen Seite ist nicht auszuschliessen, dass Investitionen in Aktien von Uran- und Kohleminen sowie von Herstellern und Betreibern konventioneller Kraftwerkstechnologie nach einer langen Durststrecke jetzt langsam wieder an Attraktivität gewinnen.

Fred F. Mueller

Update der Redaktion:

Die Deutschen Wirtschaftsnachrichten berichten auch über Warschau..Auszug:

Nichts als Streit: Weltklima-Konferenz in Warschau gescheitert

Aus Protest haben Nichtregierungsorganisationen aus aller Welt, darunter der BUND, Greenpeace und WWF, die Veranstaltung in Polen verlassen. BUND-Vorsitzender Hubert Weiger erklärt in einer Aussendung:

„Die verantwortungslose Untätigkeit der Regierungen angesichts der schon heute dramatischen Ausmaße des Klimawandels hat uns keine andere Wahl gelassen. Mit unserem Boykott wollen wir auf den in dieser Form noch nie dagewesenen Einfluss der Wirtschaftsverbände auf den Klimaschutzprozess aufmerksam machen. Die fossile Industrie hat die Klimakonferenz in Warschau okkupiert und macht es damit unmöglich, im Klimaschutz voranzukommen“.

Um wieder Vertrauen in die internationale Klimadiplomatie aufzubauen, müsse derLobbyismus der Wirtschaft drastisch eingeschränkt werden, so Weiger.

Zeitgleich zu den streitenden Klima-Rettern fand in Warschau eine Veranstaltung des privaten „Europäischen Instituts für Klima und Energie“ (EIKE) mit Vortragenden aus Deutschland, Polen und den USA statt.

Die Klima-Skeptiker hatten es diesmal deutlich leichter: Sie übergossen die Klima-Retter mit Spott und Häme – und das Chaos auf der aus Steuergeldern finanzierten Veranstaltung scheint ihnen recht zu geben. Die Themen des Vorträgelauteten „Die Katastrophe der UN Klima- und Energiepolitik“ oder „Der UN-Klimarat: Eine Schande für die Wissenschaft“.




Aus dem deutschen Stromparadies in den Blackout!

Ohne Feuer, Strom und Treibstoffe müssten wir alle noch unter den Bedingungen der frühen Steinzeit leben in Höhlen oder in Baumhütten ohne Licht und ohne ein wärmendes Feuer. Nur mit Hilfe der Energie können wir auch den Winter ertragen, haben jederzeit Licht, können in einer Stunde Strecken überwinden, für die früher mehr als eine Woche gebraucht wurden. Mit Strom wird heute Energie an fast jeden beliebigen Ort geliefert. Ohne Strom gibt es keinen Kühlschrank, keine Spülmaschine, keine Waschmaschine, kein Radio und Fernsehen, kein Internet und I-Phone, keine Zentralheizung, kein fließendes Wasser und keine Abwasserbeseitigung. Für uns ist Strom heute ein nicht verzichtbarer Grundbedarf, genau wie das tägliche Brot. Mit der „Energiewende“ droht uns aber der Black Out.

Die Leistung des Menschen

Der Mensch ist ein schwaches Lebewesen. Seine Leistungsfähigkeit liegt bei lächerlichen 100 Watt (W). Pferde leisten sieben- bis achtmal mehr. Sie brauchen aber auch mehr Nahrung. Wenn ein Mensch jeden Tag des Jahres 10 Stunden arbeitet, hat er eine Arbeit (mechanische Energie) von 350 Kilowattstunden (kWh) erbracht. In Europa liegt heute der Primär-Energieverbrauch bei 50.000 kWh pro Einwohner und Jahr. Das heißt, jeder Europäer nutzt die Arbeit von rund 150 Menschen. Wenn man berücksichtigt, dass ein Großteil der Primärenergie als Wärme genutzt oder verloren geht, nutzt jeder von uns immer noch die Arbeitskraft von 60 Menschen. Vor 200 Jahren hatten selbst Fürsten und Könige häufig nicht so viele Diener.

Heute geht es uns allen daher in vieler Hinsicht besser als den Königen vor 200 Jahren.

Wir reisen zum Beispiel viel schneller und bequemer als damals zu Pferd oder in Kutschen. Nachrichten, die früher erst nach Monaten eintrafen,  gehen fast kostenlos und sekundenschnell um den Erdball. Die Beispiele kann man beliebig fortsetzen.

Mangel an mechanischer Energie

Das Feuer, die Wärmeenergie, nutzte der Mensch mit der Menschwerdung. (Der Mensch erhebt sich aus der Tierwelt durch die Sprache und die Energienutzung). Er konnte sich Wärmen und Essen bereiten. Auch das Brennen von Ton zu Steinzeug war eine frühe Erfindung. Als mechanische Energie gab es zunächst nur die geringe Arbeitskraft der Menschen. Der Einsatz von Pferden, Eseln und Ochsen war dann eine kleine Verbesserung. Die Erfindung der Wind- und Wassermühlen führte zu einem deutlichen Fortschritt. Die Anlagen waren jedoch ortsgebunden. Mahlgut musste zu den Mühlen gekarrt oder geschleppt werden. Wassermühlen gab es nur an Wasserläufen mit ausreichendem Gefälle. Die Wege dorthin waren oft weit. Die Windmühlen arbeiteten nur, wenn Wind wehte. Das hat sich bis heute nicht geändert.

Trotz dieser Verbesserungen war mechanischer Energie weiter Mangelware. Menschen mussten die meiste Arbeit verrichten. Die Lösung waren Sklaven. Es gab Sklaven auf der ganzen Welt von China über Europa bis nach Mexiko. In Europa hießen die Sklaven Leibeigene oder Untertanen, die zu Arbeitsleistungen für die Herrschaft verpflichtet waren. Viele Kriege wurden geführt, um Sklaven zu gewinnen. Mehr als die Hälfte der Einwohner im antiken Rom waren Sklaven.

Die Sklaverei wurde nicht von Politikern oder durch humane Forderungen abgeschafft. Die Erfindung von James Watt, die Umwandlung von Wärmeenergie in mechanische Energie mit der Dampfmaschine, beendete die Sklaverei. Mechanische Energie wurde durch die Dampfmaschine so billig, dass Sklavenarbeit einfach zu teuer war. Auch die Hungerjahre wurden mit dieser Erfindung besiegt. In Gebieten mit Missernten durch Überschwemmungen, Dürren, Spätfröste oder Insektenplagen hatten die Menschen nicht mehr genug im Winter zu essen. Mit den drei Kilometer pro Stunde langsamen Ochsenkarren konnte aus den angrenzenden Überschussgebieten nicht genug Nahrungsmittel heran geschafft werden. Viele Menschen verhungerten. Mit der Dampfmaschine auf Rädern, der Eisenbahn, war der Transport ausreichender Nahrungsmittel in die Hungergebiete kein Problem mehr.

 

Strom, der universelle Energietransport

Mit dem von Siemens erfundenen elektro-dynamischen Prinzip, dem Generator, konnte mechanische Energie in Strom umgewandelt und mit Drahtleitungen einfach und preiswert zu den Verbrauchern transportiert werden, um dort Licht, Wärme, mechanische Energie oder andere Energieformen zu erzeugen. Strom selbst ist keine Energie, sondern ein Energietransport. Daher lässt sich Strom auch nicht speichern. Er muss zum Zeitpunkt seiner Erzeugung auch verbraucht werden. (Die Speicherkraftwerke speichern mechanische Energie, Wasserstoff ist ein Brennstoff, Warmwasserspeicher speichern Wärmeenergie).

Vor gut 100 Jahren wurden Stromleitungen in die Häuser gelegt. Damit fing ein neues Zeitalter an. Mit einer Schalterdrehung war der Raum sofort erleuchtet. Das langwierige und gefährliche Hantieren mit Kerzen war vorbei. Dieser Luxus kostete richtig Geld. Für eine Kilowattstunde (kWh) musste ein Facharbeiter eine Stunde arbeiten. Die Beleuchtung seiner Wohnung mit 15 Watt Lampen kostete ihm fast einen Monatslohn im Jahr. Doch die Kosten gingen schnell zurück. 1975 war die Kilowattstunde mit 0,9 Minuten eines Facharbeiterlohns am Günstigsten. Doch dann wurden die Abgaben auf Strom erhöht. Die auf Glauben und nicht auf Realitäten beruhenden Maßnahmen gegen den angeblich von Menschen verursachten Klimawandel verteuerten mit der unwirtschaftlichen und unsozialen Energiewende den Strom kräftig weiter. Heute muss ein Facharbeiter wieder 1,5 Minuten für eine kWh arbeiten. Und er braucht wesentlich mehr Strom für die wachsende Zahl der Elektrogeräte.  Die Stromkosten werden damit zu einer immer größeren Belastung. Die Haushalte, die Ihre Stromrechnung nicht mehr bezahlen können, nähern sich der Millionengrenze. Sie erleiden durch die Abschaltung des Stromes unfreiwillig und vorzeitig den Black Out, der uns allen durch die unsinnige Energiewende droht.

Mit Strom beleuchten wir nicht nur unsere Wohnungen. Er wird zum Kochen, Kühlen und Gefrieren genutzt. Er treibt Waschmaschinen und Spülmaschinen und viele Küchengeräte. Radio, Fernsehen und Internet laufen nur mit Strom. Die Zentralheizung wird mit Strom gezündet und gesteuert, das Wasser wird mit Elektropumpen zum Verbraucher gedrückt und das Abwasser zur Kläranlage. Mit Strom können wir Temperaturen bis 5.000 Grad Celsius erzeugen. Wir können damit Schweißen und Löten und viele hochschmelzende Metalle erzeugen. Für uns ist es selbstverständlich, aus einer Steckdose die Arbeitskraft von 20 Menschen problemlos  zu zapfen. 

Wir  können heute auf Strom nicht mehr verzichten, ohne unseren Lebensstandard erheblich einzuschränken. Die vielen elektrischen Küchengeräte und die Kühlketten für Lebensmittel haben zu einer wesentlichen Arbeitsentlastung im Haushalt geführt. Nur so konnte es zu einer Emanzipation der Frauen kommen; denn ohne die zahlreichen elektrischen Hilfsmittel hätte die Hausfrau einen zehnstündigen Arbeitstag, um das Essen für die Familie zu bereiten und das Haus und die Wäsche zu säubern.

Stromverteuerung ist unsozial

Phantasten, wie die Mitglieder des Club of Rome, aber auch viele Politiker in Deutschland, fordern mit unbewiesenen Katastrophenszenarien eine Verringerung des Energieverbrauchs unter dem Deckmantel der Weltklimarettung. Dazu sollen Elektrogeräte mit höherer Effizienz, also geringeren Verlusten dienen. Doch solche Geräte können sich nur Reichere leisten. Die vielen Mitbürger, die gerade ihren Lebensunterhalt bestreiten können, müssen weiter mit ihren billigen Elektrogeräten leben, die viel Strom fressen. Es wird auch nicht über die alternde Bevölkerung nachgedacht, die immer mehr elektrisch angetriebene Hilfsmittel braucht, weil menschliche Hilfe bei der abnehmenden Kinderzahl nicht mehr ausreichend zur Verfügung steht. Wir werden also in Zukunft noch mehr Elektrogeräte betreiben und dafür noch mehr Strom brauchen. Eine Reduzierung des Stromverbrauchs um ein Drittel, wie es von Politikern gefordert wird, ist eine Utopie.

Sozial ist der Abbau der vielen gesetzlichen Abgaben auf den Strom. Dazu gehört die Stromsteuer, die hohen Einspeisevergütungen nach dem Erneuerbaren Energien Gesetz (EEG), die durch den Ökostrom verursachten höheren Netzkosten, die Kosten für Kohlenstoffdioxid (CO2) Zertifikate, die Brennelemente-Steuer der Kernkraftwerke, die Abgabe für die Kraft-Wärmekopplung, die Umlage für abschaltbare Lasten und die Offshore-Umlage. Als Nächstes kommt noch die Bereitstellungsgebühr für Dampfkraftwerke und Gaskraftwerke, die gebraucht werden, wenn der Wind nicht weht und die Sonne nicht scheint. Auf diese staatlich verordneten Kosten kommt noch die Mehrwertsteuer von 19 Prozent, die dem Staat rund 5 Milliarden Euro pro Jahr in die Kassen spült.

„Ohne die staatlich verordneten Abgaben, die mit einer unsinnigen und unbewiesenen Ideologie zur Klimarettung begründet werden, kostet unser Strom weniger als die Hälfte der derzeitigen Preise und er bleibt zuverlässig.“ sagt Heinrich Duepmann, der Vorsitzende der Stromverbraucherschutz-Bewegung NAEB e.V. „NAEB fordert daher die sofortige Abschaffung des EEG und die Reduzierung der Mehrwertsteuer auf 7 Prozent, die auch sonst auf alle Grundbedürfnisse gezahlt wird.“

www.naeb.info

Übernommen von mmnews




Palmströms Axiom

Das IPCC justiert seine Kurzzeit-Prognose der Erwärmung nach unten

Von Bob Tisdale

Dieser Beitrag zeigt ein weiteres Mal, wie dürftig die Klimamodelle eine der wichtigsten Klimavariablen simulieren: die globale erdnahe Lufttemperatur. Der Beitrag ist als PDF [in Englisch] herunterladbar, falls ihn jemand als Anhang meinem E-Buch Climate Models Fail beifügen möchte. Mein Beitrag No Matter How the CMIP5 (IPCC AR5) Models Are Presented They Still Look Bad war zusammen damit auf WattsUpWithThat hier veröffentlicht worden. Wenn man durch den WUWT-Kommentarbereich durchblättert, wird man folgenden Kommentar von Bill Illis finden:

Bill Illis says:

October 5, 2013 at 6:10 am (Edit)

Jochem Marotzke vom Max Planck Institut sagte in einem Vortrag vor der Royal Society zum IPCC-Zustandsbericht:

“Als Folge der Pause [bei der Erwärmung] … wurde im Kapitel 11 des IPCC Berichts die Einschätzung der Bandbreite der kurzfristig erwarteten Erwärmung aus dem CMIP5 „Roh“-Modell nach unten erweitert. Dies zusätzlich zu einer 10%-Verminderung, weil einige Modelle eine Klimasensitivität enthalten, die etwas zu hoch ist.“

http://environmentalresearchweb.org/cws/article/news/54904

Klar doch: Wenn wir uns die Abbildungen des IPCC (Abb. 11.9 (meine Abb. 1) und Abb. 11.25 (meine Abb. 2)) anschauen, sehen wir, wie das IPCC die Kurzfrist-Vorhersagen heruntergesetzt hat – ohne die Langzeit-Prognosen zu ändern.

Abb 1 (Volle Größe hier.)

Abb. 2 (Volle Größe hier.)

Das IPCC erläutert die Abbildungen (Figures 11.9 und 11.25) im Kapitel 11 des 5. Zustandsberichts (6MB .pdf). Abbildung 11.9 wird auf Seite 24/123 (Adobe Acrobat Seitennummerierung) behandelt unter der Überschrift “11.3.2 Near-Term Projected Changes in the Atmosphere and Land Surface” und in der Teilüberschrift “11.3.2.1.1 Global mean surface air temperature.”

Abbildung 11.9 befindet sich auf Seite 102/123.

Die Erläuterungen der Abb. 11.25 stehen unter der Überschrift “11.3.6.3 Synthesis of Near-Term Projections of Global Mean Surface Air Temperature” auf Seite 53/123 ff.

Abb. 11.25 befindet sich auf Seite 120/123.

Der Artikel vom 3. Oktober 2013, den Bill Illis mit dem EnvironmentalResearchWeb der Royal Society meeting discusses IPCC fifth assessment report verlinkte, wurde von Liz Kalaugher geschrieben. Zu Jochem Marotzke wurde in diesem Artikel angemerkt:

Jochem Marotzke vom Max Planck Institut für Meteorologie war Mitglied des IPCC-Teams, das wissenschaftliche Belege für Temperatur-Trends während der jüngsten zehn bis 15 Jahre sammelte.

In jenem Artikel versuchte Jochem Marotzke die Bedeutung der Pause herunterzuspielen:

“Derartige Perioden kommen immer wieder in den Aufzeichnungen vor, aber an dieser letzten hat sich eine enorme Debatte entzündet,” wie Marotzke vor den Delegierten der Royal Society sagte. “Heißt diese Pause, dass die globale Erwärmung zum Stillstand gekommen ist? Nein. Das Klimasystem erwärmt sich weiter. Das Meereis schmilzt weiter, die Ozeane nehmen weiter die Wärme auf, der Meeresspiegel steigt weiter.”

Aber, wenn “derartige Perioden immer wieder in den Aufzeichnungen vorkommen,” warum muss dann das IPCC die „Einschätzung der Bandbreite der kurzfristig erwarteten Erwärmung aus dem CMIP5 „Roh“-Modell nach unten …“ erweitern und dazu noch eine 10%-Verminderung einführen, weil einige Modelle eine Klimasensitivität enthalten, die etwas zu "hoch“ sei?
Und wenn das so häufig vorkommt, warum musste das IPCC dann eigens ein Team bilden, das „wissenschaftliche Belege für Temperatur-Trends während der jüngsten zehn bis 15 Jahre“ sammeln sollte?

Die Antwort auf beide Fragen ist, dass die KLIMAMODELLE die in den Aufzeichnungen der Temperatur bestehenden multidekadalen Veränderungen NICHT SIMULIEREN können. Diese multidekadalen Veränderungen werden als etwa dreißigjährige Erwärmungsperioden mit nachfolgenden dreißigjährigen Perioden ohne Erwärmung interpretiert. Das haben wir in diesen Beiträgen behandelt: IPCC Still Delusional about Carbon Dioxide und Will their Failure to Properly Simulate Multidecadal Variations In Surface Temperatures Be the Downfall of the IPCC? (Hierzu auch Beiträge in hier und hier.)

Jene multidekadalden Veränderungen sind in der Öffentlichkeit bekannt und deshalb habe ich (im „Downfall“-Beitrag) den Unterschied zwischen der IPCC-Projektion der Temperatur-Anomalie auf der Nordhemisphäre und der Vorstellungen in der Öffentlichkeit über das Eintreten der Erwärmung beruhend auf den vergangenen Veränderungen geschrieben … Dabei habe ich angenommen, dass sich die Temperatur zukünftig weiter erwärmen wird (Abb 3.)

Abb. 3

Die Öffentlichkeit weiß auch, dass die IPCC-Modelle auf die Aufwärtsbewegung einjustiert wurden, die sich in den Mitt-1970ern einstellte (Mauritsen, et al. (2012) Tuning the Climate of a Global Model) [gebührenpflichtig]. Hier ist ein Nachdruck. Dabei habe ich den Fehler gemacht, den Einfluß von multidekadalen Perioden ohne Erwärmung auf die IPPC-Langzeit-Prognosziererei (bis 2100) nicht zu berücksichtigen.

Abschließend: Meines Wissens hat das IPCC seine Langzeit-Prognosen nicht auf der Grundlage der verminderten Kurzfrist-Vorhersagen heruntergesetzt.

Die Ergänzung 3 zu den Klimamodellen ist falsch (SUPPLEMENT 3 TO KLIMAMODELLS FAIL)

Wer die Beiträge zu meinem Buch Klimamodells Fail als PDFs sammelt, kann diesen Beitrag hier herunterladen.

Supplement 1 ist hier. Es ist ein Nachdruck des Beitrags Models Fail: Land versus Sea Surface Warming Rates.

Supplement 2 ist hier. Es ist ein Nachdruck des Beitrags IPCC Still Delusional about Carbon Dioxide.

Originalartikel hier.

Bob Tisdale stellt sich in seiner Webseite vor:

Ich bin unabhängiger Klimaforscher und Autor des E-Buches: “Who Turned on the Heat?”. Dort wird erklärt und illustriert, wie und warum die Daten zur Meerestemperatur und zur Wärmeaufnahme der Ozeane natürlich zu Stande kamen und nicht als Folge von menschengemachten Treibhausgasen. Ich schreibe regelmäßig für eine weltweit am meisten aufgesuchte Webseite über den Klimawandel: WattsUpWithThat.

Übersetzung: Helmut Jäger, EIKE