Fehlgeleitete Energiepolitik hat Europa auf den Weg wirtschaftlichen Abschwungs gebracht

Warum haben dann einige europäische Länder – vor allem Deutschland, aber auch UK und Dänemark – weiter den Weg grüner Politik verfolgt, der die Energiekosten in die Höhe treibt und von dem sich herausstellen könnte, dass dadurch die langfristige wirtschaftliche Entwicklung erheblich gefährdet ist?

Die gegenwärtige Politik in Deutschland zwingt die Haushalte schon jetzt dazu, die zweithöchsten Energiepreise in Europa zu zahlen – die oftmals bis zu 30 Prozent über dem Niveau anderer europäischer Länder liegen. Nur die Dänen zahlen noch mehr, und die lokalen Stromkosten in beiden Ländern sind grob geschätzt um 300 Prozent höher als in den USA. Die Umstände in Deutschland können nur zu einer weiteren Verschlechterung führen nach der Wiederwahl von Angela Merkel und ihrer CDU. Sie wird mit der Politik weitermachen, die darauf abzielt, das Land von fossilen Energieträgern und der Kernkraft abzubringen.

Aber selbst ehemalige Befürworter fangen an, die dadurch auftretenden Schäden zu bemerken. Dr. Fritz Vahrenholt, ein Vater der Umweltbewegung in Deutschland und ehemaliger Vorsitzender der Abteilung Erneuerbare Energien bei RWE, ist inzwischen jenen beigetreten, die diesen Trend in Frage stellen. In seinem neuen Buch Die vernachlässigte Sonne geht einer Katastrophe voraus [The Neglected Sun Preludes Catastrophe] kommt er zu dem Ergebnis, dass „Erneuerbare Energien eine große Zukunft haben, aber nicht so wie jetzt. Es ist ein Runaway-Train und viel zu teuer. Wir setzen unsere Industrie aufs Spiel!“

Etwa 7,8 Prozent des Stromes in Deutschland stammt aus Wind-, etwa 4,5 Prozent aus Solarenergie, 7 Prozent aus Biomasse und 4 Prozent aus Wasserkraft. Die Regierung plant, den Anteil der Erneuerbaren bis zum Jahr 2020 auf 25% anzuheben und auf 80 Prozent bis zum Jahr 2050. Da Wasserkraft und Biomasse nicht wachsen, muss das Meiste dieser Ausweitung aus Wind und Sonne kommen.

Inzwischen hofft Dänemark, wo 20 bis 30 Prozent des Stromes aus Wind und Sonne kommen, diesen Anteil auf 50% ausweiten zu können. Da Dänemark die nachts erzeugte Energie nicht komplett selbst nutzen kann, wird die Hälfte davon nach Norwegen und Schweden exportiert. Aber selbst mit den Erlösen aus diesen Exporten haben die Wind-Subventionen der Regierung den dänischen Verbrauchern die höchsten Strompreise in Europa aufgebürdet.

Und was ist mit UK? Im Jahr 2011 haben die Windturbinen in UK gerade mal 21 Prozent der installierten Kapazität (nicht nachgefragter Kapazität) Energie erzeugt. Wie in Deutschland hat die Unzuverlässigkeit bei der Befriedigung der Energienachfrage den Import von Energie aus Kernkraft aus Frankreich erforderlich gemacht. Auch genauso wie in Deutschland schließt die Regierung einige der älteren Kohlekraftwerke – obwohl schon eines davon fast doppelt so viel Energie erzeugen kann als alle 3000 Windturbinen in UK zusammen.

Erneuerbare sind unzuverlässig, und Stromausfälle kommen zu den Unbilden für die Verbraucher hinzu. Das ist dort nicht so sehr ein Problem, wo es Backup-Möglichkeiten gibt wie Wasser-, Kohle- und Kernkraftwerke, um die Nachfrage zu decken. Aber in den meisten Gebieten Europas fehlt es an Ersterem, und letztere beide werden absichtlich – zum Schaden für alle – heruntergefahren.

Anzeichen für eine konstruktive Änderung sind in Australien weitaus deutlicher. Im September hat die Liberale Partei die von den Grünen unterstützte Labour Partei geschlagen. Das war als eine Art Sieg in einem Referendum gedeutet worden, um Myriaden von Anti-Kohlenstoff-Maßnahmen abzuschaffen, die unter der vorigen Regierung eingeführt worden waren. Die Einstellung von Zahlungen in die um sich greifende Klima-Maschinerie und die Rücknahme einer Kohlenstoffsteuer werden der Wirtschaft den Erwartungen nach über 100 Millionen australische Dollar einsparen – pro Woche. Australien greift nach der Vernunft – Europa kann von diesem leuchtenden Beispiel viele Lektionen lernen.

Und dank Erdgas, Kohle und Kernkraft konnten die USA ihre Kapazität zur Energieerzeugung exzessiv steigern und die Verteilersysteme angemessen ausweiten – anders als Europa. Heute kommen über 42% des Stromes in den USA von Kohle, 25 Prozent aus Erdgas und 19 Prozent aus Kernkraft. Nur etwa 3,4 Prozent stammen aus Wind und etwa 0,11 Prozent aus der Sonne.

Ob erneuerbare Energie jemals in der Lage sein wird, substantiell im Wettbewerb mit Alternativen mithalten zu können – und nicht weiterhin ein Nischendasein zu führen – wird man sowohl in den USA als auch international abwarten müssen. Aber unabhängig davon, wir können nur hoffen, dass Amerika aus der ruinösen grünen Politik in Deutschland und anderen EU-Ländern seine Lehren zieht, bevor die fehlgeleitete Politik wie dort weiteren sozialen und wirtschaftlichen Schaden anrichten wird.

Larry Bell ist Professor an der University of Houston, wo er das Sasakawa International Center for Space Architecture leitet.

Energy row hots up as SSE blames policy for price rise 

– See more at: http://tinyurl.com/pco723b

Link: http://tinyurl.com/ooxbsch

Übersetzt von Chris Frey EIKE




Die gekonnten Vorhersagen der Klimawissenschaft

In der Studie von Smith et al. wurden folgende spezifische Vorhersagen erstellt:

• In der Dekade 2004 bis 2014 würde es einer Erwärmung um 0,3°C kommen.

• Mindestens die Hälfte der Jahre nach 2009 würde wärmer ausfallen als das Rekordjahr 1998

Man beachte, dass man zu jener Zeit, 2007, von 1998 als dem wärmsten Jahr ausgegangen war. Nachfolgende Anpassungen der Methodik machten plötzlich das Jahr 2005 zum wärmsten Jahr.

Diese Vorhersagen wurden weithin verbreitet [vielleicht auch in deutschen Zeitungen? Weiß zufällig jemand noch etwas davon? A. d. Übers.]. Sie tauchten auf in einer Presseerklärung des Met. Office, und eine Hochglanz-Broschüre zur ,,Information für die Regierungspolitik in der Zukunft” [Original Informing Government policy into the future] zeigte die obligatorischen, Angst erzeugenden Hintergrundbilder mit schwarzen Wolken und Menschen mit Atemmasken. Vicky Pope hat über diese Vorhersagen gesprochen und gesagt: „Das sind sehr sichere Statements über das, was während der nächsten 10 Jahre geschehen wird“.

Und natürlich haben alle Medien ergeben darüber berichtet ohne jede Hinterfragung.

Diese Vorhersagen haben sich als falsch herausgestellt. Wir sind fast schon im Jahr 2014 angekommen, und seit dem Jahr 2004 hat es keinerlei Erwärmung gegeben. Von den Jahren seit 2009 hat kein einzigen den Rekord des Jahres 1998 gebrochen, jedenfalls den HadCRUT3-Daten zufolge. Zieht man die HadCRUT4-Daten heran, zeigt sich, dass das Jahr 2010 um bedeutungslose 0,01°C wärmer war (das ist ein Zehntel der Fehlerschätzung). Die Jahre 2011 und 2012 waren kühler ausgefallen, und es ist inzwischen eindeutig, dass auch das Jahr 2013 kühler ausfallen wird.

Vorhergesagt war eine Erwärmung um 0,30 °C ± 0.21°C (Vertrauensbereich 5 bis 95%; Modell CI). Das bedeutet, wenn wir nicht noch eine signifikante Erwärmung während der nächsten paar Monate bekommen, sieht es so aus, als ob die Beobachtungen außerhalb von C1 liegen.

COP19, Warschau 2013: Stillstand war „erwartet worden”

Auf der letzten Klimakonferenz COP19 in Warschau war das Met. Office mit einem Stand vertreten. Auf diesem waren zwei interessante Bilder hiervon zu sehen (Dank an Leo Hickman):

[siehe Bilder oben rechts]

Offensichtlich entspricht eine Verlangsamung der Erwärmung „den Erwartungen“. Obwohl es in der Studie von Smith et al. geheißen hatte, dass die natürliche Variation die Erwärmung während der nächsten paar Jahre aufhalten könne; und obwohl sie danach mit der unrichtigen Vorhersage weitermachten, gab es keinerlei Erwähnung einer solchen Erwartung in der Presseerklärung des Met. Office oder dem Kommentar von Vicky Pope. (Tatsächlich hat sie gesagt: „während der nächsten zehn Jahre werden wir Zeuge ziemlich signifikanter Änderungen werden“).

Die zweite Graphik ist interessant, weil die Achsen nicht beschriftet sind, was die erste und elementarste Regel des Zeichnens von Graphen verletzt. Ich habe via Twitter gefragt, was da gegen was aufgetragen war. Ich danke Gerry Morrow für den Vorschlag, dass möglicherweise der Verlauf des Vertrauens in die Klimawissenschaft mit der Zeit aufgetragen war. Vermutlich sollte die Anzahl der Vorkommen pro Jahrhundert gezeigt werden, mit der ein Stillstand den Klimamodellen zufolge wahrscheinlich eintritt. Im Text ist von einem 10-jährigen Stillstand die Rede, aber der gegenwärtige Stillstand dauert schon über 15 Jahre, was nur zweimal pro Jahrhundert vorkommen soll, wenn die Modelle richtig liegen.

Smith et al 2013: weise Modelle

Eine neue Studie von Smith et al. (2013) mit dem Titel „Real-time multi-model decadal climate predictions” wurde in Climate Dynamics veröffentlicht. Daran gearbeitet haben 22 Autoren, was die Tatsache spiegelt, dass diesmal viel mehr Klimamodelle herangezogen worden waren. Der Tonfall ist irgendwie vorsichtiger als in der vorigen Studie. So heißt es beispielsweise jetzt „wir betonen, dass die Vorhersage experimentell ist“. Aber es wird auch behauptet, dass die Modelle „einer rigorosen Evaluierung unterzogen worden waren. Jedes einzelne Modell wurde individuell auf seine Vorhersagefähigkeit evaluiert“.

Die Studie vermischt Vorher- und Nachhersagen. Für so etwas wurde das Met. Office schon zuvor kritisiert. Beispiel hierfür ist die Behauptung, dass die „Vorhersagen für das Jahr 2011 gut mit den Beobachtungen übereinstimmen“. Bei der Lektüre der Studie wird nicht klar, wann diese ‚Vorhersagen‘ ausgegeben worden sind.

Es gibt keine Schlagzeilen-Zahl einer Erwärmungs-Vorhersage während der nächsten Dekade, aber hier folgt eine Graphik, die diese Vorhersagen graphisch darstellt:

Die nicht initialisierte Vorhersage scheint von einem Startpunkt mit einer um 0,3°C höheren Temperatur auszugehen, als gegenwärtig gemessen, während die initialisierte (rote) Kurve einen Anstieg von etwa 0,3°C innerhalb von drei Jahren zeigt. Eine Vorhersage der Reading-Gruppe (grüne Kurve) wurde aus irgendwelchen Gründen heraus gehoben und zeigt einen mehr graduellen Anstieg. (Ed Hawkins nannte mir als Grund, dass es eher eine statistische Vorhersage als eine auf Klimamodellen basierende handelt).

Aber was hinsichtlich Smith et al. 2013 am bemerkenswertesten ist: Es wird kein Versuch unternommen, die Genauigkeit der vorigen Studie von Smith et al. 2007 abzuschätzen, obwohl diese frühere Studie als Referenz genannt wird und trotz der Aussage in der Introduction, dass „die Abschätzung der Diskrepanzen zwischen den Vorhersagen und den nachfolgenden Beobachtungen Schwächen der Initialisations-Strategien enthüllen kann, der Modellsimulationen interner Variabilität, Modellreaktionen auf äußere Antriebe und Unsicherheiten zukünftiger Antriebsfaktoren. Diese alle sind für die Verbesserung zukünftiger Vorhersagen nicht evaluierbar“.

Hier wollen wir an die berühmte one-minute summary of how science works von einem Kerl namens Richard Feynman erinnern.

Aktualisierung: Ed Hawkins sagt, das seine Studie in Arbeit ist, in der die Vorhersage-Verzerrungen in einer Version von DePreSys untersucht werden.

Link: http://ipccreport.wordpress.com/2013/11/20/the-skillful-predictions-of-climate-science/

Übersetzt von Chris Frey EIKE




Lassen sich zukünftige Erdtemperaturen berechnen?

Die Datengrundlagen von SB sind Zeitreihen des Berylliumisotops Be10 sowie des Kohlenstoffisotops C14. Die Leitidee der Autoren bestand darin, ihre auf Fourier- und Waveletanalysen basierende Vorhersagemethode an Hand von jeweils 500 Jahreszeiträumen an Hand der bekannten Vergangenheitsdaten zu evaluieren. Da dort die Resultate befriedigend waren, sahen es die Autoren als berechtigt an, eine Vorausberechnung für die 500 noch vor uns liegenden Jahre zu erstellen. Das Ergebnis dieser Berechnung zeigt Bild 1 (Fig. 4 [1]).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild1-1.jpg

Bild 1: Sonnenaktivität (linke Skala) und Irradianz (rechte Skala) von 1650 bis zum Jahre 2500.

Die Arbeit von SB bestätigen die im Buch von Vahrenholt/Lüning [2] geschilderte Hypothese vom Einfluss der Sonne auf terrestrische Klimaentwicklungen, wobei der hier waltende Mechanismus noch unbekannt ist und von SB auch nicht näher untersucht wird. Es handelt sich bei der Arbeit von SB um eine statistische Analyse, der kein Modell des untersuchten Phänomens zugrunde liegt. Da die Sonnenaktivität in der Vergangenheit gut mit den Erdtemperaturen korreliert, was sich besonders deutlich in allen vergangenen Temperaturminima zeigt, erlaubt diese Feststellung eine Extrapolation in die Zukunft, soweit auch dort der gleiche Kausalzusammenhang besteht und sich zudem sie Sonnenperiodizitäten fortsetzen. Infolge des relativ langen Beobachtungszeitraums (ca. 10.000 Jahre), in der diese Prämissen als zutreffend überprüft werden konnten, erscheinen nur weitere 500 Jahre als eine verhältnismäßig sichere Vorhersagespanne.

Die Publikation von SB ist auch für uns Autoren von großem Interesse. In der EIKE News vom 1.Nov.2013 (hier) besprachen wir unsere Veröffentlichung [3] , in welcher wir zeigen, dass alle Klimaänderungen seit ca. 1750 bis heute durch periodische (natürliche) Vorgänge bewirkt werden. Nichtperiodische Vorgänge, wie etwa eine Erwärmung durch die stetige Zunahmen von CO2 in der Atmosphäre, können danach höchstens in der Größe von 0,1 bis 0,2 °C bei Verdopplung des CO2 Gehaltes (wie bis zum Jahr 2100 erwartet) wirksam werden.

Wir fanden, dass 2 Zyklen mit Perioden ~240 Jahre und ~65 Jahre fast vollständig und globalweit die Klimaänderungen in gleicher Weise bestimmen. Zum ~ Zeichen ist anzumerken, dass die Periodendauern mit der Zeit variieren, was auch bei den später geschilderten Vergleichen zu berücksichtigen ist. Alle anderen Zyklen sind schwach gegen diese, und nichtperiodische Einflüsse, wie etwa von CO2, spielen offenbar keine Rolle. Der ~65 Jahr Zyklus ist ein alter Bekannter, nämlich sofort mit der „atlantisch-pazifischen Oszillation“ (AMO/PDO) zu identifizieren, welche sich 1400 Jahre zurückverfolgen lässt. Die AMO/PDO hat keinen äußeren Antrieb sondern stellt als „Eigendynamik“ einen terrestrischen „Ozillator“ dar.

Obwohl die mathematische Analyse der historischen Temperaturaufzeichnungen eine starke ~240 Jahr Periode anzeigt, mussten wir diese anderweitig nachprüfen. Bei der begrenzten Länge der historischen Temperaturaufzeichnungen von nur etwa 250 Jahren kann eine ~240 Jahr Periode natürlich nicht zweifelsfrei nachgewiesen werden. Die Rekonstruktion der Temperatur der letzten 2000 Jahre aus den Daten des Spannagel-Stalagmiten zeigte aber ebenfalls diese Periodizität als bei weitem die stärkste Klimavariation seit ca. dem Jahre 1100.

Die Existenz der starken ~240 Jahr Periode, die die hauptsächlichen Klimaänderungen beschreibt, ist in Diskussionen trotzdem in Zweifel gezogen worden. Obwohl gerade die Temperaturen aus den Stalagmitendaten mit solchen, die aus Nordatlantik Sedimenten gewonnen wurden, gut übereinstimmen. Überdies ist der „de Vries Zyklus“ der Sonne, der etwa diese Periodenlänge hat (~210 Jahre), schon lange als bestimmender Klimaeinfluss bekannt. Eine Bestätigung für die Existenz und den dominierenden Einfluss des von uns gefundenen ~240 Jahr Zyklus liefert nun auch die Veröffentlichung von SB, die ebenfalls den maßgebenden Einfluss des de Vries Zyklus betont.

Interessant bei der Arbeit von SB ist auch die Waveletanalyse der Sonnenaktivität  Abb. 2  (Fig. 1b [1]). 

 http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild2-1.jpg

Bild 2: Waveletspektrum, die rechte Skala gibt die Stärke der Periodizität (in log2) an. Die schwarze Linie ist der "cone of influence", außerhalb von ihm werden die Ergebnisse allmählich unsicher. Der im Text erwähnte de Vries Zyklus, der in den letzten 1000 Jahre zu den stärkksten Periodizitäten gehört, ist deutlch erkennbar.

Waveletanalysen ermöglichen im Gegensatz zur Fourieranalyse zusätzlich die Angabe, zu welcher Zeit welche Oszillationen auftreten. Die Waveletanalyse der Sonnenaktivität von SB bestätigt unsere Waveletanalyse der Spannagel Daten. Die ~240 Jahr Oszillation setze erst vor ca. 1000 Jahren ein. Sie wiederholt sich nach Bild 2 offenbar in regelmäßigem Abstand von grob 2500 Jahren.

Zusammenfassend kann festgestellt werden, dass die Analyse der Sonnenaktivität von SB die von uns aus Temperaturaufzeichnungen und Stalagmitendaten ermittelten Periodizitäten bestens bestätigt. Der solare „de Vries Zyklus“ zusammen mit der AMO/PDO bestimmen praktisch vollständig die Klimaverläufe der letzten Jahrhunderte und der kommenden Jahrhunderte. Insbesondere ist die starke Erwärmung am Ende des 20. Jahrhunderts dem Zusammentreffen des de Vries und des AMO/PDO Maximums zuzuschreiben. Ein wesentlicher Einfluss von CO2 auf die Erdtemperatur muss daher ausgeschlossen werden, was mit den sich kaum ändernden spektralen Eigenschaften des CO2 bei atmosphärischer CO2 Konzentrationserhöhung bestens vereinbar ist.

Für die derzeitige „Stagnation“ der Erdtemperatur ist der AMO/PDO Zyklus verantwortlich, der sein Maximum inzwischen verlassen hat.  Der de Vries Zyklus ist derzeit etwa an seinem Maximum und ändert seinen Einfluss nur sehr langsam. Da das nächste AMO/PDO Minimum um 2035 liegt, ist zumindest bis dahin weiter mit absinkenden Temperaturen zu rechnen. Die Berechnung von SB sagt überdies ein Temperaturminimum um das Jahr 2100 voraus, das durchaus dem der kleinen Eiszeit Ende des 17. Jahrhundert gleichkommen könnte. Sollte diese Vorhersage zur Realität werden, was nicht unwahrscheinlich ist, darf jetzt schon über das Schicksal der AGW – Hypothesen spekuliert werden.

 

Quellen:

[1] F. Steinhilber and J. Beer, Prediction of solar actibvity for the next 500 years, Jor. Geophys. Res. Space Phys., Vol. 118, 1861-1867 (2013)

[2] F. Vahrenholt, S. Lüning, Die kalte Sonne, Hoffmann und Campe Verlag

[3] "H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, clim. past, 9, 447-452, 2013" (hier)

 

Zu den Autoren:

Prof. Dr. Horst-Joachim Lüdecke (Physiker) lehrte nach Forschungs- und Industrietätigkeit an der HTW des Saarlandes. Fachveröffentlichungen in Kernphysik, Strömungsmechanik, Chemietechnik und Klimaphysik sowie ein Fachbuch und zwei Klimasachbücher (hier). Er ist Pressesprecher von EIKE.

Prof. Dr. Carl Otto Weiss (Physiker) war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er ist EIKE Mitglied.

Related Files




Kombikraftwerke für 100 % „Erneuerbare“. (Teil 1) Ein Projekt von Tagträumern oder Hütchenspielern?

Teil 1

In der Hunger-Zeit nach dem zweiten Weltkrieg warb ein geschäftstüchtiger Fleischermeister mit einem besonderen Angebot.

„Billig, billig: Reines Kaninchenfleisch (mit Pferdefleisch gemischt!)“ Im Kleingedruckten stand: „Mischung: 50:50!“. Ein neugieriger Kunde fragte nach, wie denn das mit der 50 : 50 Mischung zu verstehen sei?  Der Meister zögerte ein wenig, bis er schließlich sagte: „Na, ja, ein Kaninchen,  ein Pferd!“

 So ähnlich kann man sich die Zusammensetzung des Kombikraftwerks vorstellen, welches das unermüdliche Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) in Kassel zusammen mit seinen Partnern[1]:  der staunenden Öffentlichkeit kürzlich vorstellte.

Die dazu erstelle Pressemitteilung ist überschrieben mit:

Kombikraftwerk 2 demonstriert: „Sicherer Stromnetzbetrieb bei 100% Erneuerbaren Energien in Zukunft möglich“

Und um die sehr hohen Erwartungen an die Möglichkeiten dieses Projektes auch allen Gläubigen des Einsatzes von „Erneuerbaren“ zu demonstrieren, wurde außerdem ein schöner aufwendiger Film erstellt, der auf Youtube zu sehen ist.

Er hat den verführerischen Titel

Stabiler Strom aus Erneuerbaren Energien“:

Hier das Youtube Video  zum Projekt Kombikraftwerk 2

Als Dokumentarfilm aufgemacht und  mit vielen  Animationen angereichert, welche die schöne neue Welt mit hundert Prozent  Ökostromversorgung  den Zuschauern nahe bringen soll, zeigt er uns anschaulich was -dank Kombikraftwerk-2-Erkenntnissen- zukünftig möglich sein soll.  Nämlich 100 % Stromversorgung aus Ökostrom. Geld für das Projekt ist jedenfalls genug da,  denn es wird – wie anders – vom Bundesministerium für Umwelt mit rd. 1,8 Mio € gefördert. Der Anteil der vielen Projektpartner an der Förderung –allesamt Nutznießer des Geldregens aus der Energiewende- wird leider nicht genannt. Klein wird er jedoch nicht sein. Doch sonst ist von Geld oder gar Kosten samt Vergleichen, wie man dasselbe Ziel mit konventionellen oder mit Kernkraftwerken erreichen kann, mit keinem Wort die Rede.

Was wurde gemacht?

Deswegen ist es nützlich, sich die Fakten anzuschauen, die dem Projekt zugrunde liegen. Im „Hintergrundpapier[2] ist aufgelistet welche Einzel-Kraftwerke zum  „Kombikraftwerk“ zusammengeschlossen wurden. Es handelt sich um zwei brandenburgische „Windparks“, 12 PV Anlagen im Raum Kassel und insgesamt sieben Biomasseanlagen in Hessen und im Saarland. Tabelle 1 zeigt deren Anzahl, Lage und Leistungsdaten

WKA

Ort

Anzahl

Anlagen

Nennleistung in MW

Brandenburg Jüterbog

18

37,2

Brandenburg Jüterbog

19

39,2

PVA

Raum Kassel

12

1

Biomasse

Wallerstädten

1

1,2

Mittelstrimmig

2

0,5

Zemmer

2

1,4

Heilbachhof

2

0,5

Zusammen

56

81

Tabelle 1: Typ, Ort, Anzahl und Nennleistung der zum Kombikraftwerk 2 zusammengeschalteten Einzelanlagen mit zusammen 81 MW Leistung.

Sofort sticht ins Auge, dass es sich beim Zusammenschluss um eine recht willkürliche Angelegenheit handelt. Auch wenn Deutschland als Ganzes und insbesondere Kassel nicht von der Sonne verwöhnt werden, so ist doch der Anteil an PVA Leistung mit nur 1,2 % der Gesamtleistung extrem gering. Hält doch Deutschland mit rd 40 % der installierten PV Anlagen, deren Nennleistung sich inzwischen zu über 34 GW auftürmen den Weltrekord bei der Solarnutzung.

Ob die geringe Einspeisung für das Gelingen des Versuches erforderlich war oder nicht, wissen wir nicht. Denkbar wäre es jedenfalls. An zweiter Stelle folgen dann, mit ebenfalls geringen 4,44 % der Gesamtleistung, die Biomasseanlagen, während die Windparks, mit rund 94,3 %, dominieren. 

Das Tortendiagramm in Abb 1. zeigt die Anteile nochmals grafisch.  

Abbildung 1: Verteilung der Nennleistungsanteile beim Feldversuch Kombikraftwerk 2.

Der Feldversuch hatte den  Zweck herauszufinden ob „Erneuerbare“ sich dazu eignen sog. „Regelleistung“ bereit zu stellen. Das ist die Kraftwerksleistung, die zur Grundlast hinzukommen muss, um schwankenden Bedarf und/oder schwankende Einspeisung sekunden- bis minutenschnell auszugleichen. Dabei sind besondere Anforderungen an Frequenz und Phase der so eingespeisten Leistung zu erfüllen.

Auch ohne jeden Versuch dieser Art hätte man vorab feststellen können, dass sich Kraftwerke auf Biomassebasis jederzeit für die Bereitstellung von Regelenergie eignen, denn wie alle thermischen Kraftwerke können sie innerhalb gewisser – wenn auch bei Biomasse besonders enger-Grenzen (siehe Kommentare unten) beliebig herauf- wie auch heruntergefahren werden, d.h. je nach Anweisung des KW-Betreibers mehr oder weniger Leistung ins Netz einspeisen. Komplizierter wird diese Betriebsweise bei Windkraft- oder Solaranlagen. Aber auch diese lassen sich, wenn auch in wesentlich engeren Grenzen, auf- und abregeln, bspw. durch Verstellen des Anstellwinkels der WKA-Rotorblätter oder durch schrittweises Zu- und Abschalten oder Veränderung des Anstellwinkes einzelner PVA Felder.  Mit der sehr wichtigen Einschränkung, dass dies nur möglich ist, wenn genügend Wind oder Sonne vorhanden sind. Also immer von Wind und Sonne abhängig.

Da nun die beiden letzteren generell immer von der Verfügbarkeit von Wind und Sonne abhängen, ist ihr Einsatz als Kraftwerke auch und besonders für Regelleistung – von wenigen Ausnahmen mal abgesehen – im Normalfall dem Willen der Götter unterworfen. Deswegen setzt man sie bisher nicht für deren Erbringen ein.

Der Versuch sollte nun demonstrieren, dass sich alle beteiligten Kraftwerkstypen zusammen als Regelleistungslieferant eignen würden. Dabei wurde bereits in der Kurzbeschreibung ausführlich dargelegt und auch im Film entsprechend gewürdigt, dass man später auch Speicher und Backup-Kraftwerke einbeziehen würde. Das ist in diesem Falle jedoch – mangels Speichern und Backup-Kraftwerken- nicht geschehen. Denn als Backup Kraftwerke gerade mal für 4,44 % der Leistung gut, kann man das Faulgas-Kraftwerk wohl nicht ansehen.

Was wurde versprochen?

Das Projekt wurde zentral vom Fraunhofer Insititut für Windenergie & Energiesystemtechnik (IWES) in Kassel entworfen und geleitet und im Versuch von dort im 3-Sekunden-Takt gesteuert. Der Versuch selbst dauerte insgesamt 20 Minuten und wurde schon nach dieser kurzen Zeit von der Projektleitung als Erfolg gewertet. Dabei gelang es lt. Versuchsleitung, die Netz-Frequenz mittels passender Steuerung der einzelnen Komponenten innerhalb einer Bandbreite von ± 0,03 Hz bezogen auf 50 Hz zu halten. Vollmundig sagte der Versuchsleiter Kurt Rohrig anschließend (Minute 7:20 ff)

„Unser Versuch hat gezeigt, dass die Erneuerbaren nicht nur genügend Energie liefern, sondern auch für eine stabile Spannung und eine stabile Frequenz sorgen“.

Wenn das so sein sollte, dann bleibt zunächst die Frage offen, was ein 20 minütiger Feldtest, aufs genaueste vorbereitet und ausgetrimmt, eigentlich beweisen soll? Hätte ein solcher als Nachweis für eine 100 % Versorgung aus „Erneuerbaren“ angekündigter „Feldversuch“, nicht über einen wesentlich längeren Zeitraum – mindestens 7 Tage á 24 Stunden, besser noch – weil wirklichkeitsnäher- – mehrere Monate mit Stark- und Schwachwindtagen sowie mit Sommer und Wintersonne laufen müssen?

Offen  bleibt auch die Frage, warum man schon bei einem so positiven Ergebnis, (wenn auch nur im extrem kurzem Test) die Regeln für die Anlieferung von Regelleistung  zugunsten der „Erneuerbaren“ ändern soll. Denn dies wurde im Hintergrundpapier eindringlich gefordert. Da bahnt sich offensichtlich, parallel zur Vorrangeinspeisung, der Wunsch nach Sonderbehandlung an. Aber diese Forderungen sollen hier jetzt nicht betrachtet werden.

Was wurde erreicht?

Wie der Film exemplarisch zeigt, wurde erreicht, dass die Frequenz unter kontrollierten Bedingungen innerhalb von ± 0,03 Hz ausgeregelt wurde. Dazu waren alle Teilkomponenten lieferbereit und zuvor entsprechend abgeregelt, um im Bedarfsfall ihre Leistung erhöhen oder im umgekehrten Fall drosseln zu können.

Weder genannt noch gezeigt wurden die Produktionsbedingungen insbesondere für die dominierenden Windkraftanlagen, die bis zu 94 % der Leistung betragen könnten. Auch wurde die Leistungsabgabe der PVA Anlage  in Kassel nicht erwähnt, vielleicht weil diese mit nur max. 1,2 % zu Gesamtleistung beigetragen hätte. 

Ebensowenig wurde gezeigt, wie das System reagiert, wenn die Netzfrequenz sich bis zu ± 0,2 Hz ändert. Das ist  nämlich der Bereich, den normale Kraftwerke ausregeln müssen und können. 

Somit ist die Schlussfolgerung des Projektleiters Rohrig reichlich kühn, wenn er diesen Mikroversuch, der unter engsten, streng kontrollierten Bedingungen durchgeführt wurde, als Beleg für das Vorhandensein  grundlegender Eigenschaften ansah, wie man sie aus guten Gründen an eine funktionierende qualitativ hochwertige Stromversorgung stellen muss.  Diesen Beweis erbrachte der Versuch nicht.

Was wurde nicht erreicht?

Nirgendwo -weder im ausführlichen Hintergrundpapier noch im Film – wurden die Randbedingungen erläutert, unter denen der Versuch durchgeführt wurde. Die Beschränkung auf die Ausregelung von mageren ± 0,03 Hz, also einem knappen Sechstel der zulässigen Abweichung, legt den Verdacht nahe, dass die Versuchsanforderungen extrem leicht waren. Auch gab es keine Informationen über Laständerungen o. ä.

Unterstellt man, wie im Film und im Hintergrundpapier behauptet. dass dieser Feldversuch ein gelungenes Beispiel für das Funktionieren der Versorgung eines Industrielandes wie Deutschland mit 100 % Strom aus „Erneuerbaren“ sein soll, dann erhebt sich sofort als weitere Frage, wie denn die Stromversorgung gesichert werden soll, wenn weder die Sonne scheint noch der Wind weht. Dann nützt weder ein Aufregeln der Windparks noch eine künstliche Beleuchtung der dunklen PVA Anlagen. Denn von nichts kommt nichts! Was verfügbar bleibt, ist die Energiemenge, die die Biomassekraftwerke (vulgo Faulgas-Generatoren) abliefern können. D.h. die maximal sicher abrufbare Regel-Leistung ist nur diejenige der paar Faulgasgeneratoren. Alles andere ist Beiwerk oder Spitzenlastausgleich für den eher seltenen Fall, dass Nachfrage und Angebot übereinstimmen.

Abbildung 2: Maximal abgebbare Energiemenge je Kraftwerkstyp beim Feldversuch Kombikraftwerk 2

Die Leistung der Biomassekraftwerke und somit der obere Grenzwert an sicher verfügbarer Leistung lag hier bei 3,6 MW oder knapp 5 % der Gesamtleistung. Anders ausgedrückt, dieses Kombikraftwerk kann trotz seiner 81 MW Nennleistung dauerhaft und sicher nur bis zu 3,6 MW aufbringen. Das entspricht einem Verhältnis von 22,5 zu 1 zwischen installierter (und vom deutschen Michel bezahlter) Leistung und der sicher abrufbaren Leistung!

Aufgrund seines vglw. hohen Nutzungsgrades kann dieser Kraftwerkstyp im Durchschnitt zwar bis zu 17 % der Gesamtmenge an elektischer Energie erzeugen, aber eben auch nicht mehr. Die stündlich oder täglich abgebbare Energiemenge wird jedoch durch die maximale Leistung der Biomassegeneratoren[3]  nach oben begrenzt.  Von Speichern, die diese missliche Situation mildern könnten, insbesondere Batterien und/oder Wasserstoff-Methanspeichern, ist im Film zwar die Rede, aber sie wurden weder in den Versuch einbezogen noch sind sie in der Realität – selbst in diesen Minigrößenordungen- verfügbar

Nun wird man sofort einwenden, dass auch im konventionellen Bereich die Kraftwerke nach Grund- Mittel- und Spitzenlastkraftwerken unterschieden werden. Es muss nicht immer die volle Lieferkapazität bereitstehen, weil sich bestimmte Abahmesituationen in Abhängigkeit von  Stunde, Tag und Jahreszeit kurz-, mittel- und langfristig planen lassen. Deshalb lassen sich dafür entsprechende Kraftwerkstypen und deren Leistung unter kosten- und betriebsoptimalen Bedingungen vorhalten. Das hat zusätzlich den Charme, dass auch unvorhergesehene Lastabrufe über die gleichen Kraftwerke abgefangen werden können.

Dieser berechtigte Einwand ist jedoch für die oben gezeigten Situation  nicht stichhaltig. Denn alle konventionellen Kraftwerkstypen sind per se auch zur Erbringung von Grundlast sowie zur Abgabe von Regelenergie fähig. Und damit auch fähig zu jeder gewünschten Zeit, Strom – im Rahmen der jeweiligen Maximalauslegung – in gewünschter Menge, bereitzustellen. Es ist nur eine  Kostenfrage, ob sie für diesen oder jenen Zweck eingesetzt werden oder nicht. Und damit keine Frage, die allein vom Wettergott entschieden wird. Deswegen müssen die Regellast- Kraftwerke auch nur bis zur Abdeckung der Spitzenlast ausgelegt werden und nicht für ein Vielfaches davon. Einer solchen, eigentlich selbstverständlichen, Anforderung genügen aber weder PVA noch Windkraftwerke. Denn die liefern ihre Leistung nur an wenigen Stunden des Tages und auch nur dann, wenn Wind oder Sonne es erlauben. Häufiger vorhersagbar, aber sehr oft eben auch nicht.

Also bleibt festzuhalten, dass uns die Versuchsleitung allen Ernstes weismachen will, eine Überkapazität von 23:1 im Kraftwerkspark wäre ein probates Mittel um 100 % „Erneuerbare“ einzusetzen.

Ende Teil 1


[1] Diese sind: CUBE – Engineering GmbH, Deutscher Wetterdienst, ENERCON GmbH, ÖKOBiT GmbH, Siemens AG, SMA Solar Technology AG, SolarWorld AG, Agentur für Erneuerbare Energien und Institut für Elektrische Energieversorgung an der Universität Hannover, Quelle http://www.kombikraftwerk.de/kontakt/impressum.html

[2] hier Kombikraftwerk Hintergrundpapier

[3] In der Realität ist sie auch beim Biomassekraftwerk noch geringer weil diverse Einschränkungen nur eine Nutzung von max. 75 % übers Jahr gestatten




Protestierende Greenpeace-Jünger(In) äußert sich zum Klimawandel

Aufgenommen wurde es anlässlich der EIKE Klimakonferenz im Dezember 2009 in Berlin. Es ist zwar schon vier Jahre alt, aber in seiner Deutlichkeit nach wie vor hoch aktuell.

Video mit deutscher Synchronisierung vom Gespräch zwischen Lord Christopher Monckton, ehemals wiss. Berater von Lady Margret Thatcher, und der norwegischen Greenpeace Aktivistin Kerstin Blodig vom Dezember 2009 in Berlin. Frau Blodig bezeichnet sich selbst als führende Interpretin der skandinavisch – keltischen Musik.

Lord Christopher Monckton vom Science and Public Policy Institute, Großbritannien, interviewt Kerstin Blodig von Greenpeace.
Greenpeace nahm in der Vergangenheit großzügige Spenden vom Rockefeller-Brothers Fund an:http://www.undueinfluence.com/greenpeace.htm 

Mit Dank an Leser Hansen.




Schellnhuber schafft die Sensation: Er hat ein Elektroauto mit 95% Wirkungsgrad erfunden!

Ist 95% Leistung auf die Antriebswelle eines Elektroautos praktisch überhaupt möglich? Nun, Schellnhuber ist theoretischer Physiker, er weiß es daher, es ist so, es muss so sein und es wird möglich sein. Das Klima und damit vielleicht noch Höheres beugt sich bereits seinem Willen, so dass sich uns die Nackenhaare vor Erschütterung ein wenig steiler stellen, da wird doch ein läppisches Elektromobilprinzip nicht bocken wollen. Schließlich schreibt er in der Oktober Ausgabe von "DB mobil" in seinem Beitrag „Das wird eine Revolution“ (hier):

Es ist anachronistisch, dass die Mehrzahl der Menschen noch immer mit Verbrennungsmotoren fährt. Für mich als Physiker ist die Energiebilanz dieses Antriebs haarsträubend schlecht, denn nur 20 Prozent davon werden für die Bewegung genutzt, der Rest geht als Wärme verloren. Dagegen lassen sich beim Elektromotor 95 Prozent der Primärenergie auf den Vortrieb bringen.

Wooow! Da haben die deutschen Technischen Hochschulen und die Entwicklungsabteilungen der großen Autohersteller aber ganz schön gepennt. 95% sind angesagt, und Schellnhuber weiß wie es geht. Wir sind leider nicht gut genug unterrichtet, um den Lesern mitzuteilen, ob Schellnhuber bzw. das PIK bereits ein Patent auf seinen revolutionären Elektroantrieb beantragt hat.

Damit wir die sensationelle Erfindung Schellnhubers richtig würdigen können, dürfen wir der Fairness halber kleinliche Bedenkenträger nicht ganz außen vor lassen, so gerne wir dies auch täten. Das macht auch gar nichts, tritt doch wahre Größe, neben Kleines gestellt, nur umso deutlicher hervor. Stellvertretend für alle Bedenkenträger zitieren wir die DEKRA (hier). Veröffentlicht doch diese DEKRA eine Internet-Schrift (hier) mit dem provozierenden Titel „Mit der Temperatur sinkt die Reichweite“ und weiter im Untertitel „Citroen C-Zero im Prüflabor, Größte Energieverluste an Batterie und Antriebsstrang, Bei 22 °C Wirkungsgrad von 56 Prozent“.

So die DEKRA, die man angesichts dieses Versuchs einer Herabsetzung der genialen 95%-Erfindung von Schellnhuber nur noch mit Verachtung strafen sollte. Schellnhubersche 95% gegen gemessene 56% der DEKRA, das sind schlappe ~40% Wirkungsgrad mehr! In welchem Land leben eigentlich diese Leute von DEKRA, dass sie es wagen mit kleinkarierten Messungen einem so großen Mann ans Bein zu pink… .

Die DEKRA-Messungs-Fachleute werden aber noch frecher, schreiben sie doch weiter

"Fahrer von Elektroautos sollten bei der Routenplanung in der dunklen Jahreszeit auch das Thermometer im Auge behalten. Denn im Unterschied zu herkömmlichen Fahrzeugen mit Verbrennungsmotor hängt die Reichweite von E-Fahrzeugen stark von der Außentemperatur ab. Dies haben Versuchsfahrten im Prüflabor  des DEKRA Technology Centers ergeben. Bei einem Citroen C-Zero verringerte sich die Reichweite bei  minus 5° C um rund die Hälfte verglichen mit dem Aktionsradius bei plus 22° C Außentemperatur."

Das ist schon unerhört! Und noch weiter lesen wir – nun schon voller Abscheu, wir können schon gar nicht mehr hinsehen:

Bei den Versuchen beachteten die Experten die Bedingungen der ECE Regelung 101, die zur Messung von C02 und Kraftstoffverbrauch vorgeschrieben sind. Um die Tests realitätsnaher zu gestalten, schalteten sie bei „sommerlicher“ Fahrt (plus 22° C) zusätzlich die Fahrzeuglüftung (Mittelstellung) zu. Bei der simulierten „Winterfahrt“ (minus 5° C) arbeitete die Heizung auf Volllast, außerdem waren für jeweils 10 Minuten die Heckscheibenheizung und die Sitzheizung aktiv, zudem stand das Gebläse auf Automatik.

Unter diesen Bedingungen kamen bei sommerlichen Temperaturen von der Ladeenergie (18,30 kWh) etwa 56 Prozent als mechanische Antriebsenergie (10,17 kWh) auf der Straße an. Bei winterlichen Bedingungen (minus 5° C) stehen für die Antriebsmechanik nur noch 22 Prozent der Ladeenergie (4,11 kWh) zur Verfügung. Dafür ist vor allem die stark reduzierte Speicherkapazität der Batterie bei niedrigen Temperaturen verantwortlich.

Auch die Frage, welche Energieverluste beim Elektroauto im Detail auftreten, wurde untersucht. Neben der stark reduzierten Speicherkapazität der Batterie bei Kälte treten verschiedene Energieverluste in den Bereichen Batterie, Leistungselektronik und Antrieb auf.
 

  • Batterie: An der Batterie geht bereits bei plus 22° C Außentemperatur fast ein Fünftel der Ladeenergie (4,1 kWh / 19 Prozent) durch Verluste an der Hochvoltbatterie verloren. Bei minus 5° C steigt dieser Anteil auf 48 Prozent (9,5 kWh).

  • Antriebsstrang: Größere Wirkungsgradverluste treten am Antriebsstrang zwischen der Leistungselektronik und der verfügbaren mechanischen Antriebsenergie auf. Im Neuen Europäischen Fahrzyklus liegt der Wirkungsgrad hier im Schnitt über 60 Prozent. Auch bei minus 5° C fällt er nicht unter 50 Prozent.

Dies reicht uns jetzt aber endgültig, wir beenden diese DEKRA-Zitate und wollen nichts mehr hören. Schellnhuber wird diesem übelwollenden Messungen-Quatsch der DEKRA schnell den Garaus machen, wenn er mit seinem aus theoretischer Physik destillierten Elektroauto-Prototyp von 95% Wirkungsgrad im kommenden Winter bei minus 25 °C (Verzeihung, Beispiel ist nicht gut gewählt, ist ja bei der von Schellnhuber garantierten globalen Erwärmung gar nicht möglich) verschmitzt lächelnd an den DEKRA-Testern vorbeirauscht. Leute wie Schellnhuber braucht unser Land, nur so ist echter Fortschritt möglich. Hätten wir solche Genies 70 Jahre früher gehabt, wäre es vielleicht mit den schief gelaufenen Wunderwaffen ….. Um nicht ins politisch Inkorrekte zu geraten, beenden wir hier unsere Eloge.




Klima, Liebe und Verbrechen – Ein Klimathriller von Sonja Margolina

Sie führt uns dabei beinahe um die ganze Welt, vom krisengeschütteten Kaukasus in die unwirtliche Antarktis, von der quirligen deutschen Hauptstadt in die brave schwäbische Provinz. Auch die wahre Liebe kommt nicht zu kurz. Und immer, wenn es besonders grotesk zuzugehen scheint, sind Ähnlichkeiten zu lebenden Personen und Ereignissen keinesfalls zufällig, aber voll aus dem unglaublichen Leben gegriffen. 

Eine Leseprobe dieses Thrillers finden Sie im Anhang, kaufen können Sie ihn hier als Kindle Edition

Related Files




Warum ist es so schwer den Meeresspiegel zu messen?

Video zur Bestimmung des Meeresspiegels

Das Video ist in Englisch. Die Untertitel können vom Betrachter auch in Deutsch ausgegeben werden. Dazu auf die Menuezeile gehen (kommt hoch, wenn der Mauszeiger in die Nähe der unteren Begrenzung kommt. und dort die Untertitel Funktion aufrufen. Dort – in Englisch- auf "übersetzen drücken und "Deutsch" auswählen. Die verfügbaren Sprachen sind alphabetisch angeordnet.




Wie EEG und Energiewende Arbeitsplätze vernichten – Aber dieser Zusammenhang wird unterdrückt, weil es (klima)politisch nicht opportun ist

Outokumpu und das Edelstahlwerk in Bochum

Sie erinnern sich vielleicht, gelesen zu haben, dass der finnische Konzern Outokumpu sein Nirosta-Stahlwerk in Bochum Ende 2014 und damit zwei Jahre früher als geplant schließen will. Dann verlieren 3500 Menschen ihren Arbeitsplatz. Zwar hatte die IG Metall in einem Tarifvertrag mit dem Konzern vereinbart, dass der Bestand des Werkes mindestens bis 2016 gesichert sein sollte, aber darüber setzt dieser sich wohl hinweg. Zur  Begründung verwies er auf Überkapazitäten und den Preisdruck. Aber man las nichts davon, dass die Schließungsabsicht mit den zu hohen deutschen Stromkosten zusammenhängt. Doch es versteht sich, dass das Werk Bochum mit diesen Kosten, wenn auf dem (internationalen) Markt für Edelstahl Überkapazitäten und Preisdruck bestehen, nicht konkurrenzfähig sein und dem Druck widerstehen kann. Allerdings ist es (klima)politisch nicht opportun, auf den Zusammenhang von zu hohen Stromkosten und Betriebsschließungen hinzuweisen.

Die Vorgeschichte zur Schließung in Bochum

Wie geschickt bei dieser Verschleierung vorgegangen werden kann, lässt sich an der Vorgeschichte studieren. Gehört hatte das Edelstahlwerk Bochum zuvor ThyssenKrupp. Erst vor gut einem Jahr hatte ThyssenKrupp das Werk mit rund 15 000 Beschäftigten an den finnischen Konzern verkauft. Über die Hintergründe berichtete damals die Stromverbraucher-Schutzvereinigung NAEB*) in ihrem Newsletter 12/02 vom 17. Februar 2012 wie folgt:

Die Fusion von Thyssen und Krupp und der Gang nach Brasilien

„Früher gab es mal Thyssen für Edelstahl und Krupp für einfachen Stahl. Dann fusionierte man zu ThyssenKrupp und begann, als die Probleme für die Stahlproduktion zunahmen, eine Produktion für einfachen Stahl in Brasilien aufzubauen. Heute wird rund ein Drittel dieses Stahls in Brasilien produziert. Gibt ein Konzern nun einfach ein Geschäft auf, wenn es in Deutschland nicht mehr geht? Das von den Politikern verursachte Mannesmann-Desaster ist den Thyssen-Krupp-Managern noch klar vor Augen. Man muss also ins Ausland.

Wie kommt man geräuschlos ins Ausland?

Aber wie kommt man mit Edelstahl geräuschlos ins Ausland, zum Beispiel nach Finnland, einem Land mit preisgünstiger Energie, dem festen Willen zur Kernkraft, nah an der Rohstoffquelle und dem Standort eines Edelstahlproduzenten, der aber nur zwei Fünftel  der Produktionsmenge von ThyssenKrupp hat. Nun, man verkauft diesem Edelstahl-Zwerg sein Geschäft in Deutschland mit der Maßgabe, unrentable deutsche Standorte (wegen der Energiepreise) zu schließen. Diese Drecksarbeit macht nun Outukumpu. Damit die Politiker nicht zu sehr in Sorge über ein vollständiges Abwandern von ThyssenKrupp ins Ausland geraten, streut man gleichzeitig schlimme (durchaus korrekte) Verlustmeldungen über das Brasilien-Geschäft, so dass die Politiker argumentieren können, es gelte den Konzern zu retten.

Der Handel ThyssenKrupp mit Outokumpu

Wie konnte nun dieser Edelstahlzwerg Outukumpu überhaupt diesen Brocken schaffen. Nun, Thyssen-Edelstahl erhielt hauptsächlich nicht Geld, sondern an Outukumpu einen 30-Prozent-Aktien-Anteil. Das sollte reichen, um nach Abschluss der Drecksarbeit auf die Mehrheit bis zur Beherrschung aufzustocken. Wenn dann in der nächsten Stahlkrise die Kapazitäten der deutschen Rohstahlproduktion drastisch heruntergefahren werden, können die Politiker achselzuckend dieses zur Kenntnis nehmen und die Medien werden nicht einmal über einen Manager herfallen können wie man damals bei dem Mannesmann-Desaster über Herrn Cromme hergefallen ist.

Nicht ThyssenKrupp kritisieren

Wir sollten nicht an ThyssenKrupp Kritik üben, sondern die Entscheidung als einzige Möglichkeit des Unternehmens akzeptieren, mit der Kurzsichtigkeit der Politiker und der Meinung der überwältigenden Mehrheit von 99 Prozent  deutscher Sonnenanbeter umzugehen. Was können wir als Betroffene tun: Unsere Kinder in Ausland schicken, Anteile nicht in Deutschland produzierender Firmen erwerben, nach Mallorca in die Rente gehen,…. vielleicht uns aber auch zusammentun und nicht mehr nur Leserbriefe schreiben und Klartext reden: Ein Verbrechen bleibt ein Verbrechen, Dummheit ist Dummheit, Schizophrenie ist Schizophrenie.“

Handel mit der Politik um einen geräuschlosen Rückzug aus Deutschland

Soweit damals der NAEB-Newsletter-Text. Die Überschrift hatte gelautet: „ThyssenKrupp schleicht sich auf leisen Sohlen von dannen.“ Jetzt also führt Outukumpu die „Drecksarbeit“ aus, die Werksschließung mit der Massenentlassung, und im Sonder-Newsletter 13/09 vom 6. Oktober 2013 schrieb der NAEB-Vorsitzende Heinrich Duepmann: „So schnell treten meine Prognosen ein. Insgesamt produziert Outukumpu in Deutschland Edelstahl heute noch an den Standorten Dillenburg, Krefeld, Benrath, Wilnsdorf, Unna, Schalksmühle mit geschätzt zwischen 8000 bis 10 000 Mitarbeitern. Die Zentrale für Öffentlichkeitsarbeit in Duisburg wird geleitet von einer des Deutschen nicht mächtigen finnischen Managerin, woraus man klar erkennen kann, wo es lang geht. Im Zusammenhang mit der Schließung Bochum hat das Management von Bochum betont, dass der Strompreis nicht die Ursache für die beabsichtigte Schließung ist. ….  Ich schließe daraus: Industrie-Unternehmen verständigen sich mit der Politik auf einen geräuschlosen Rückzug aus Deutschland, wenn sie die Energiewende nicht kritisieren. Und ich frage Sie, wo sollen Ihre Kinder denn noch einen produktiven Arbeitsplatz finden, an dem volkswirtschaftlicher Wohlstand generiert wird.“

Einige zusätzliche Beispiele für Arbeitsplatzverluste

Und nochmals aus NAEB-Newslettern zitiert: Wohl meldet die Agentur für Arbeit (früher schlicht und zutreffender: Arbeitsamt genannt) neue Beschäftigungsrekorde in Deutschland. Sie könnten sogar höher sein, denn regelmäßig geht unter, was EEG und Energiewende an Arbeitsplätzen mutwillig vernichten. Einige zusätzliche Beispiele: ThyssenKrupp gibt den Bereich Umformtechnik ab (25 000 Beschäftigte), das war 2011. Eon entlässt im Bereich Verwaltung 11.000 Beschäftigte. Eon gibt das Verteilnetz ab (Beschäftigte?). RWE baut 7 000  Arbeitsplätze ab, das GM-Opel Werk Bochum schätzungsweise 5 000.

Das Beispiel ZF wird Schule machen

„Die Entscheidung von ZF, seine Kunststoff- und Ledersparte an Chinesen abzugeben, bedeutet mittelfristig den Totalverlust der 2 700 Arbeitsplätze in Deutschland. In nicht ferner Zukunft werden dann in den in Deutschland produzierten Autos die Kunststoffe und Leder-Komponenten von einem chinesischen Lieferanten kommen. Das Beispiel wird Schule machen, und die nächsten 200 000 Arbeitsplätze im Auto-Zulieferbereich werden in den nächsten zehn Jahren verschwinden. Was sollen die Leute dann machen. Nun, 10 Prozent werden Fall-Manager bei den Arbeitsämtern, 10 Prozent werden Umschulungslehrer für Job-Suchende. Und diese 20 Prozent nehmen sich dann der restlichen 80 Prozent an. So erhält man wenigsten 40 000 Arbeitsplätze. Die sind zwar keine produktiven im Sinne der Betriebswirtschaft, aber das interessiert weder den Politiker noch den betroffenen Arbeitslosengeld-Bezieher.“ (Newsletter 13/08)

Weitere Beispiele

Andere Unternehmen, die zumindest auch an den hohen deutschen Energiekostens scheitern, sind weitere Edelstahlwerke von Outokumpu (Stillegung), die Gießerei Heger-Ferrit  in Sembach bei Kaiserslautern (Insolvenz), ein Stahlguss Betrieb mit 60 Beschäftigten (FAZ vom 5. September 2013), das Unternehmen Hydro Aluminium in Neuss (Verlagerung), Alu Norf in Neuss (Teilstillegung), S+C  bei Gummersbach (Insolvenz), GuD Kraftwerk in Irsching (Abschaltung), Textil Veredelungsfirma Drechsel in Selb (klagt gegen das EEG), Kalkwerk Flandersbach (Stillegung) und das BASF-Ammoniak-Werk (Verlagerung).   Eine Initiative von zehn großen Energieversorgern macht sich außer um die Stabilität der Stromnetze Sorgen auch um das Abwandern von Industrie wegen zu hoher Stromkosten. Es sind Eon (Deutschland), RWE (Deutschland), Vattenfall (Schweden), Enel (Italien), Eni (Italien), Iberdrola (Spanien), Gas Natural Fenosa (Spanien), GdF Suez (Frankreich), CZ  (Tschechien) und Gasterra (Niederlande).

Hydro Aluminium in Neuß

Im NAEB-Newsletter 13/10 vom 3. November 2013 war zu lesen: „Auch in der Aluminium-Branche sind die Stromkosten entscheidend für die Wettbewerbsfähigkeit. Der norwegische Produzent Hydro Aluminium findet es falsch, wenn in den Debatten bei uns häufig Industrieproduktion und Klimaschutz als unvereinbar angesehen werden, denn ohne Aluminium in Stromleitungen, Solar Modulen (die fertigen Module enthalten einen sehr hohen Anteil an Aluminium ) oder Autos ist die sogenannte Energiewende nicht zu schaffen. Hydro Aluminium produziert  bei Neuß das Aluminium in einer lückenlosen Wertschöpfungskette von der Schmelz-Elektrolyse (sehr stromaufwendig) bis zum Halbzeug.

Hydros Aluminiumhütte in Quatar dreimal größer als die in Neuß

In nächster Nachbarschaft steht das größte Walzwerk der Welt, einige Kilometer weiter eine große Aluminium-Veredelungsanlage, bei der unter anderem Alufolien und Lithographie-Platten hergestellt werden.  Für deren Premiumqualität ist die Schmelzelektrolyse unverzichtbar. Vor einigen Jahren wurde wegen der hohen Stromkosten die Aluminiumproduktion auf 20 Prozent  der ursprünglichen Produktion gedrosselt  und entsprechend mehr Vormaterial für die Walzwerke importiert.  In der Zwischenzeit hat die EU-Kommission der Aluminium-Industrie eine Erstattung der im Strompreis enthaltenen Kosten für CO2-Emissionen zugestanden.  Damit soll die Produktion wieder auf jährlich 150 000 Tonnen verdreifacht werden. In Quatar hat Hydro jetzt eine Aluminiumhütte für den Betrieb mit dem billigen dort vorhandenen Erdgas gebaut, die dreimal größer als die Neußer Hütte ist.  Wenn in dem Neußer Walzwerk einmal Modernisierungsinvestitionen anstehen, werden diese wahrscheinlich auch bzw. eher in Quatar gemacht werden.  Schon heute ist die Befreiung von der EEG-Umlage (und der Stromsteuer)  für die Aluminium-Industrie  existenziell.“

RWE plant 12 900 Entlassungen

Der Stromerzeuger RWE baut weiterhin viele Arbeitsplätze ab. Bis Ende 2016 will er seine Belegschaft von 73 600 auf 60 700 verringern. Das bedeutet, dass in dieser Zeit 12 900 Mitarbeiter entlassen oder in die Frührente geschickt werden. Vor fünf Jahren war für sie alle der Arbeitsplatz bei diesem starken Arbeitgeber noch bombensicher. Die Ursache für diesen spektakulären Niedergang ist eindeutig die „Energiewende“. Angesichts dessen erscheint es geradezu als paradox, dass  RWE diese ruinöse Wende auch noch mitmacht, längst selbst in das Windkraftgeschäft eingestiegen ist, sich auf seiner Web-Seite mit seinen Investitionen in dieses Geschäft brüstet und mit öffentlichen Anzeigen die „Energiewende“ sogar bewirbt. Seine von der Entlassung bedrohte Belegschaft müsste sich geradezu verhöhnt vorkommen und sich entsprechend artikulieren. Davon vernommen hat man allerdings bisher nichts, jedenfalls nicht öffentlich.

Die De-Industrialisierung Deutschlands schreitet voran

Der Exodus von Unternehmen und Branchen vollzieht sich von der Öffentlichkeit ziemlich unbemerkt. Die De-Industrialisierung in Deutschland schreitet voran. Es scheint, als sei das gewollt. Schon der Morgenthau-Plan nach dem Zweiten Weltkrieg wollte aus Deutschland wieder einen Nur-Agrarstaat machen. Wir wissen, aus übergeordneten politischen Vorhaben mit Deutschland wurde anders verfahren. Wird Morgenthaus Plan jetzt auf schleichende Weise verwirklicht? Geschieht es mit Absicht? Und mit welcher?

*) Zur Information: Ich bin Mitglied im NAEB-Beirat.      NAEB-Web-Seite: http://www.naeb.info/

Dieser Beitrag ist zuvor auf meiner Blog-Seite www.kpkrause.de erschienen. Hier sind auch meine sämtlichen Beiträge seit dem 18. März 2008 verfügbar




COP 19 in Warschau: Der Gipfel der Zyniker, Heuchler und Träumer

Die ersten Meldungen im Radio und den öffentlich – rechtlichen TV-Sendern waren schon ein unverzeihbarer Skandal. Sie lauteten: In den Philippinen habe ein Tropensturm von ungewöhnlicher Stärke gewütet. Es seien mindestens drei Tote zu beklagen. „Drei Tote?“ Wer hat das denn in die Welt gesetzt? Und wie konnte eine solche Meldung alle Kontrollen einer Nachrichtenredaktion passieren, ohne dass es jemanden auffällt, dass Haiyan sich schon seit einigen Tagen als der stärkste Taifun seit Jahrzehnten auf den Inselstaat zubewegt? 
Da ging mal wieder Schnelligkeit vor Nachdenken, Ahnungslosigkeit vor Wissen, Routine vor Sorgfalt. Heute-journal Moderator Klaus Kleber hat sich dann, als das wahre Desaster deutlich wurde, so halbwegs für die „Drei-Tote-Meldung“ entschuldigt. Aber damit wurde nicht erklärt, wie so etwas passieren kann.

Video (leider nur in Englisch) vom Vortrag des US-Astronauten von Apollo 7 Walt Cunningham (81) vor rund 300 Teilnehmern auf dem CFACT EIKE Kongress am 21.11.13 im Auditorium Maximum der Kardinal Stefan Wyschinski Universität in Warschau: Colonel Walt Cunningham war Pilot auf der Mondfähre Apollo VII , dem ersten bemannten Apollo-Flug in den Weltraum. Oberst Cunningham erklärt, warum Amerikas Raumfahrtpioniere schockiert und von der heutigen Politisierung der Wissenschaft bestürzt sind, um damit der globale Erwärmungs-Agenda zu dienen. Sie fordern die Abschaffung der Verfälschungen und Vorurteile aus der wissenschaftlichen Untersuchung und eine Rückkehr zu der strikten Anwendung von rein wissenschaftlichen Methoden.

Doch das war erst der harmlose Anfang einer Desinformationswelle. Ein Taifun in den Philippinen löst mittlerweile sofort eine Sondersendung bei der ARD aus, auch wenn die Redaktion noch nicht mehr weiß, als die wenigen Informationen, die ihr ein paar Agenturen gemeldet haben. Und wenn man schon nicht mehr zeigen kann, als die spärlichen Bilder, die gerade in den Nachrichten gesendet wurden, hilft ein Interview über die Ursachen des Taifuns. Und Moderatorin Hanni Hüsch wird unversehens zur Spezialisten für die Klimaerwärmung. In Hamburg bietet sich dann natürlich der immer verfügbare und unvermeidliche Mojib Latif an, beschäftigt im vom Staat finanzierten Hamburger Max Planck Institut für Meteorologie. Pflichtgemäß verkündet er: „Solche starken Taifune sind das Ergebnis der Klimaerwärmung.“ Das wird natürlich wissenschaftlich etwas verbrämter formuliert. Aber das Stichwort für die Träumer und Heuchler war gegeben: Haiyan ist das Ergebnis der unverantwortlichen Industriestaaten des Westens.

Das ist ebenso präzise und journalistisch unredlich wie die „Drei-Tote-Meldung.“  Hauptsache eine Sondersendung. Hauptsache schnell! Zwei Fragen hätte Frau Hüsch vorher klären sollen:
1.) Seit 15 Jahren haben wir eine leichte Temperaturabkühlung. Warum taucht dann gerade jetzt ein Monstertaifun auf? Latif begründete das mit einer Erwärmung des Pazifiks – an einigen Stellen. Aber die gibt es immer wieder, das ist nichts Neues.
2.) Selbst das Potsdamer Institut für Klimafolgeforschung, sozusagen das Zentralkomitee für die Erklärung der Klimakatastrophen hat mehrfach durch seinen Institutsleiter und Kanzlerinberater Prof. Hans Joachim Schellnhuber ausgesagt: Die natürliche Temperatur unserer Erde liegt bei 15 Grad. Und auch darüber besteht Einigkeit: Zurzeit beträgt die Welttemperatur 14,5 Grad. Wie also kann eine Klimaerwärmung, die nicht eingetreten ist, Taifune auslösen? Hanni Hüsch hat nicht gefragt. Sie hat aber noch viele Sondersendungen über die Katastrophe moderiert, die wenig erklärten, eher zur Kategorie „Elendsvoyeurismus“ gehörten.

Mojib Latif hat schon viel gesagt, wenn er die Klimazukunft beschreibt. Im Jahre 2000 versprach er uns, dass wir nie wieder im Winter Schnee schaufeln müssen. Als es dann in den letzten Jahren ganz anders kam, korrigierte er sich: Er habe von den Jahren 2050 bis 2100 gesprochen. Dann werden wir ihn nicht mehr befragen können.

Er und seine Erwärmungsfreunde haben auch für Südeuropa Dürren vorausgesagt. Das war 2000 als in Mallorca die Stauseen einmal leer waren. Seit 12 Jahren aber sind alle Seen in Südeuropa randvoll und gerade jetzt schwimmen in Sardinien die Autos durch die Straßen.
Von der Voraussage der angeblichen Zunahme der Hurrikans und Taifunen mal abgesehen, weil die in den letzten Jahren abgenommen haben, heißt es jetzt: Die wenigen Stürme würden aber heftiger. Das gibt keine Statistik her – bleibt eine Behauptung. Trotz Haiyan.
Was allerdings in den Tagen danach in und um die Warschauer Weltklimakonferenz aus dem Elend, das Haiyan angerichtet hat, gemacht wurde, ist an Zynismus nicht zu überbieten. Während die Konferenz wieder einmal zeigte, dass es kein verbindliches Klimaabkommen mehr geben wird, weil die Interessen der einzelnen Staaten zu unterschiedlich sind und sich nicht unter einer neuen gigantischen UN-Behörde mit supranationalen Vollmachten ausgleichen lassen. Sozusagen als Ersatzhandlung wurde in Warschau die moralische Keule geschwungen. Wer nicht an die Hochrechnungen und politischen Konstrukte des „Weltklimarates“ glaubt, wurde mehr oder weniger als mitverantwortlicher Mörder an den Opfern des Taifuns abgestempelt. Dass dies die sich selbst in den Stand der Heiligkeit versetzten so genannten Umweltverbände tun, ist fast selbstverständlich. Deren Zynismus können wir ja in Deutschland hautnah erleben, wenn sich zum Beispiel der B.U.N.D. und Nabu gegen entsprechende Zahlungen für das Aufstellen von Windrädern in geschlossenen Waldgebieten kaufen lassen.  Aber in Warschau hat auch der deutsche Christdemokrat und Umweltminister Peter Altmaier diese wilde These wiederholt. Auch er versucht damit aus der Zerstörung und dem vieltausendfachen Tod einfacher Menschen politisches Kapital zu schlagen. Dieser Zynismus ekelt mich an. 
Dass auch UN-Generalsekretär Ban Ki Moon ins selbe Horn bläst, ist schon eher verzeihlich. In Syrien muss er tatenlos zuschauen, wie ein Diktator sein Volk abschlachtet. Da gehen die Opferzahlen in die Hunderttausende. Als oberster UN-Repräsentant präsidiert er über eine Organisation, in der alle Staaten die Menschenrechtskonvention unterschrieben haben, aber sich mindestens die Hälfte nicht daran hält. Er muss Verbrechern und Mördern mit diplomatischem Geschick begegnen, damit die vielleicht ein bisschen weniger morden und stehlen. Also, da kommt es auf eine weitere Verdrehung der Realität nicht so an. Sein dringender Appell, doch bitte sehr, bis zur nächsten Konferenz 2015 in Paris ein Abkommen gegen die Erderwärmung unterschriftsreif vorzubereiten, wird nichts nutzen – und das ist gut so. Wir brauchen keine neue UN-Behörde, die anderen schon funktionieren kaum.

Was aber sehr viel Menschenleben retten könnte, wäre der Aufbau einer internationalen Katastrophen-Eingreiftruppe, die mehr Geld und mehr Befugnisse hat, als die bisherige UN-Hilfsorganisation. Auch in den Philippinen hat es sich wieder einmal gezeigt, dass vor allem Hilfe in den ersten Stunden oder Tagen viele Menschen retten könnte. Aber genau da hapert es. Meistens fehlt eine benutzbare Infrastruktur, fehlt es an Organisationserfahrung, an schwerem Gerät und Helikoptern. Wie wäre es, wenn die Staatengemeinschaft die 100 Milliarden Dollar, die für einen undurchsichtigen Klimafolgefonds für Entwicklungsstaaten vorgesehen sind, stattdessen für eine Katastrophenhilfe nutzen würde? Sie müsste jedem Staat zur Verfügung stehen, der vorher unterschreibt, dass er an diese Organisation auch Hoheitsrechte abtritt und nicht durch Zollgebühren auf Hilfslieferungen am Elend seiner Bürger noch verdienen will. Sie stünde dann bei allen Desastern zur Verfügung – ob Erdbeben oder Stürmen.

In den Philippinen haben die Amerikaner wieder einmal gezeigt, wie so etwas aussehen kann. Sie sind eingeflogen und haben erst einmal den Flughafen wieder benutzbar gemacht, damit die anderen Helfer überhaupt in Tacloban landen konnten. Eine Flotte unter Führung des Flugzeugträgers „Washington“ hat sich sofort auf den Weg gemacht mit tausenden Soldaten, Tonnen von Hilfsgütern, Fluggerät und Feldkliniken. Das entspricht in etwa der Aufgabenteilung in der Welt: Die Umweltretter von Greenpeace und WWF zum Beispiel sind für die moralische Entrüstung zuständig, die Amerikaner für die praktische massive Hilfe. Es ist schon am Rande der Peinlichkeit, wenn dann in den Sendungen darauf hingewiesen wurde, dass die Amerikaner damit natürlich auch ihre Dominanz im Pazifik unterstreichen wollten und dass sie in den Philippinen besondere Interessen pflegen. Ja, sie sind die Macht im Pazifik, aber kein Staat hilft so schnell und konsequent wie die USA. Die Nörgler haben übersehen, dass es die Amerikaner waren, die auch in Myanmar bei der großen Flutkatastrophe 2008, bei der zirka 180 000 Menschen ertrunken sind, mehr geholfen haben, als alle anderen Nationen zusammen, obwohl es sich um eine eher feindlich gesonnene Militärdiktatur handelte. 
In den vielen Sondersendungen kamen leider nicht die Ursachen zur Sprache, die in diesem Fall mitverantwortlich sind, dass die Zahl der Todesopfer so hoch ausfiel. Ich kenne Tacloban noch aus den 80er Jahren. Damals hatte diese Ansammlung von Hütten und einfachen Holzhäusern nur knapp 100 000 Einwohner. Jetzt 30 Jahre später waren es 200 000. Die Philippinen haben eine der höchsten Geburtenraten der Welt, nicht zuletzt wegen des starken Einflusses der katholischen Kirche. Der jetzige Präsident Benigno Aquino III. war der Erste, der den Mut hatte, kostenlos Kondome zu verteilen, was ihm den Zorn der Kirche einbrachte.

Die explodierende Bevölkerungszahl hat nämlich zur Folge, dass Regionen in den Philippinen besiedelt werden, die dafür eigentlich absolut ungeeignet sind. Bei einer meiner Filmproduktionen entdeckte ich im Süden der Hauptinsel Luzon einen traumhaften Strand. Weißer Korallensand und Palmen soweit das Auge reichte, glasklares Meer. Aber weit und breit keine Siedlung, kein Touristenhotel, nichts. Mein Begleiter klärte mich auf: „Hier sind wir in der „Einflugschneise“ der Taifune. In deren Saison wird hier alles weggeblasen und weggespült.“ Die Mitte der Philippinen war deswegen immer dünner besiedelt als der Norden und der Süden. Aber irgendwo müssen die Menschen ja hin. Und so wuchsen auch die Siedlungen und Städte in der betroffenen Visayas – Region. Mit Klimawandel hat das überhaupt nichts zu tun. 
Dass trotzdem bei uns der Eindruck entsteht, dass immer mehr furchtbare Katastrophen die Welt heimsuchen, liegt auch an dem journalistischen Wahrnehmungsgrad. Als ich einmal während meiner Korrespondentenzeit in Asien in Manila war und sich ein starker Taifun ankündigte, fragte ich bei der „heute-Redaktion“ an, ob ich darüber berichten solle. Es gab mehrere hundert Tote und Manila stand unter Wasser. Aber damals war ein Taifun in den Philippinen noch kein Thema. War weit weg. Heute würde das wohl eine Sondersendung werden, um die drohende Klimakatastrophe in Erinnerung zu bringen.

Erstaunlich zurückhaltend zeigten sich auch die Katastrophenreporter, wenn sie über die Sicherheitslage in den betroffenen Gebieten berichteten. Von bewaffneten Banden war da die Rede, von Kriminellen, die aus einem Gefängnis ausgebrochen seien. Nur einmal, bei einem Beitrag über ein Dorf, das eine Selbstschutztruppe aufgebaut hat, fiel das Wort „NPA“. Aber das wurde nicht übersetzt. Warum? Die NPA, die es immer noch in den ganzen Philippinen gibt, auch auf der direkt betroffenen Insel Samar, ist eine kommunistische Guerillaarmee, die die Menschen mit Schutzgeldzahlungen erpresst und jegliche wirtschaftliche Entwicklung verhindert. Die NPA (New Peoples Army) gilt als Steuereintreiber für die kommunistische Partei. Ihr Gründer lebt in den Niederlanden. Dass diese Verbrecher jetzt auch noch die obdachlose Bevölkerung bedrohen, ist offensichtlich im deutschen Fernsehen keine Nachricht.

Fazit: Je weiter entfernt sich eine Katastrophe abspielt, je besser lässt sie sich für innenpolitische Zwecke missbrauchen – und kein Elend ist furchtbar genug, um es nicht noch politisch auszunutzen.

Anmerkung:
Der Autor dieses Artikels war 6 Jahre als ZDF Fernost – Korrespondent auch für die Philippinen zuständig und hat dort fast 100 Nachrichten- und Dokumentationsfilme produziert. Von der Präsidentin Corazon Aquino, der Mutter des heutigen Präsidenten erhielt er die philippinische Auszeichnung „Rooster of Heroes“ für seine Berichterstattung über die Revolution 1986.

zuerst erschienen auf ACHGUT 




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 12 (Epilog 2) : Mediale Tsunamis ?

Und der Meteorologe Karsten Brandt macht auch innerhalb nur eines Jahres einen merkwürdigen “Sinneswandel” durch. Aber einen ganz “dicken Hund” hat sich der Doku-Sender “PHOENIX” erlaubt, der eine Anmoderation zum Thema “Klimawandel” für die 2. Ausstrahlung – 9 Tage später – nachträglich verändert hatte, obwohl die erste Anmoderation wissenschaftlich korrekt gewesen war. In die 2. Anmoderation wurden stattdessen nun suggestive Falschbehauptungen durch Verwendung irreführender Begriffe eingebaut. Dadurch wird nun womöglich beweisbar, wie eine TV-Berichterstattung rund um den Klimawandel mit “politischen Motiven” und suggestiv-falschen wissenschaftlichen Aussagen vorsätzlich und bewusst manipuliert wird. Wiedermal wurde der Tsunami 2004, der bekanntlich durch ein Erdbeben ausgelöst worden ist, nun bei PHOENIX plötzlich auch zum Wetterphänomen. Aber machen Sie sich dazu selbst ein Bild in dem folgenden Video. Auch Dunja Hayali vom “ZDF-Morgenmagazin” ist mit dieser “Tsunami-Nummer” auch wieder mit dabei:

Das obigen Video analysiert ebenfalls die mediale Berichterstattung über die Hurrikans/Taifune im Vorjahr 2012 und im VorVorjahr 2011 und fördert auch zu diesen angeblichen Extremwettern sehr Erstaunliches zu Tage.  Aber der “Schocker zum Abschluss” der “unbequemen Wahrheiten” wird wohl für viele Zuschauer der 15-minütige Zusammenschnitt der DokuFiktion “Crash 2030” aus dem Jahr 1994 sein, an der u.a. auch Hans J. Schellnhuber und Hartmut Grassl als “Wissenschaftliche Beratung” agierten. Wer sich diese Doku-Fiktion in voller Länge (45 Minuten) anschauen will, kann sich das HIER antun. Aber der ARD-ModeratorReinhold Beckmann hat sich im Vergleich zur 2009er-”Trash”-Klimasendung mit “Klimapapst” Hans J. Schellnhuber in diesen Tagen doch wahrlich zum Positiven weiterentwickelt. Vorsichtiger Respekt, Herr Beckmann, auch DAS muss und wird im Video von Epilog 2 erwähnt werden.

Mit diesem “Epilog 2″ endet nun definitiv das Videoprojekt über die “10 unbequemen Wahrheiten über Hans J. Schellnhuber“, was uns seit gut einem halben Jahr in Atem gehalten hat. Wir hoffen es hat Ihnen viel an Aufklärung über die Berichterstattung über den Klimawandel gebracht. Wir wurden bisher nicht von der “Gegenseite” darüber informiert, dass wir seit dem 02.09.2013 – seitdem die “unbequemen Wahrheiten” veröffentlicht wurden – irgendetwas nicht korrekt berichtet hätten. Wir haben wohl nichts Falsches erzählt. Insofern können wir uns wohl ein wenig auf die Schulter klopfen.

Die Macher und Unterstützer des “Klimamanifests-von-Heiligenroth” sind nach wie vor an Feedback und Kritik über dieses Filmprojekt interessiert. Der 6-minütige Videotrailer mit einer integrierten Playlist mit allen 15 Einzel-Filmen (Trailer, 12 Kapitel, Trailer von Kapitel 8 und AddOn-Film zu Kapitel 2 & 3 ) ist weiterhinseit dem 27.08.2013 online.




Wie und warum das IPCC das CO2 mittels falscher Informationen dämonisiert hat

Man vergleiche die industrialisierte Nation mit einer internen Verbrennungsmaschine auf Basis fossiler Treibstoffe. Man kann die Maschine auf zwei Arten anhalten: Die Treibstoffzufuhr unterbinden oder den Auspuff stopfen. Die Treibstoffzufuhr zu unterbrechen ist ein politisches Mienenfeld. Die Menschen merken sofort, wenn alle Preise steigen, vor allem für Nahrungsmittel. Es ist einfacher zu zeigen, dass die Auspuffgase zu irreparablen Umweltschäden führen. Das ist der Grund, dass CO2 zum alleinigen Brennpunkt des IPCC geworden ist. Verfahren und Methoden wurden aufeinander abgestimmt, CO2 zu isolieren und zu zeigen, dass dieses Gas zu einer globalen Runaway-Erwärmung führt.

In den achtziger Jahren habe ich Henry Hengeveld, Mitarbeiter bei Environment Canada davor gewarnt, dass es ein Problem ist, einen Politiker von einem Gedanken zu überzeugen. Das Propagieren von CO2 als ein Problem war Teil von Henrys Karriere. Ich erklärte ihm, dass das größere Problem auftaucht, wenn man ihn überzeugt und dann die Behauptung als falsch überführt wird. Entweder räumt man den Fehler ein, oder man verschweigt die Wahrheit. Environment Canada und die Mitgliedsstaaten des IPCC haben sich dafür entschieden, die Wahrheit zu verschleiern.

1        Die IPCC-Definition des Begriffes Klimaänderung war der erste große Betrug

Die Menschen sind betrogen worden, als das IPCC gegründet wurde. Die meisten glauben, dass es sich um einen regierungsamtlichen Untersuchungsausschuss handelt, der alles zur Klimaänderung untersuchen soll. Die aktuelle Definition vom United Nations Environment Program [Umweltprogramm der UN] (Artikel 1) des UNFCCC begrenzt diesen ausschließlich auf menschliche Ursachen.

„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

In einem anderen Betrug haben sie die in den ersten drei Berichten (1990, 1995, 2001) verwendete Definition im Bericht 2007 geändert. In der Summary for Policymakers ist das eine Fußnote.

„Klimaänderung nach Lesart des IPCC bezieht sich auf jedwede Änderung des Klimas mit der Zeit, erfolge diese nun aufgrund natürlicher Variabilität oder als Folge menschlicher Aktivitäten. Diese Definition unterscheidet sich von der des UNFCCC, in der eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

Diese Definition fand aber keine Anwendung, weil die Zustandsberichte aufeinander aufbauen. Eine Einbeziehung der natürlichen Variabilität hätte einen völligen Neustart erforderlich gemacht.

Es ist unmöglich, den menschlichen Beitrag zur Klimaänderung zu bestimmen, wenn man die natürlichen (nicht-menschlichen) Klimaänderungen nicht kennt oder nicht versteht. Professor Murray Salby zeigte, wie der menschliche Anteil des CO2 bedeutungslos ist, und dass Variationen bei den natürlichen CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigte, dass eine Änderung um 5% aus diesen Quellen mehr ist als die gesamte menschliche Erzeugung.

2        Das IPCC zieht Rückschlüsse und will eine Hypothese unbedingt beweisen

Um dieses Verfahren wissenschaftlich aussehen zu lassen, wurde eine Hypothese konstruiert, die auf folgenden Annahmen basierte:

● CO2 ist ein Treibhausgas (GHG), das die Rückstrahlung von Wärme von der Erde behindert.

● die Wärme wurde auf die Erde zurück gestrahlt und hat die globale Temperatur steigen lassen.

● Nimmt das CO2 zu, steigt die globale Temperatur.

● Der CO2-Gehalt nimmt zu aufgrund der sich immer mehr erweiternden industriellen Aktivitäten.

● Der globale Temperaturanstieg war unvermeidlich.

Um noch sicherer zu machen, dass auch das gewünschte Ergebnis herauskommt, hat sich das IPCC daran gemacht, diese Hypothese zu untermauern, anstatt zu versuchen, sie zu widerlegen, wie es die wissenschaftliche Methode erfordert. Wie Karl Popper gesagt hat:

„Die Regel gibt vor, dass die anderen Regeln wissenschaftlicher Verfahren so gestaltet sein müssen, dass sie nicht irgendein Statement der Wissenschaft vor der Falsifikation schützen“.

Das beständige und unermessliche Verhalten des IPCC enthüllt falsche Interpretationen bzgl. CO2. Sobald ein Umstand von Wissenschaftler auftauchte, die ihrer Rolle als Skeptiker gerecht geworden waren, hat das IPCC nicht etwa die Gültigkeit und Wirksamkeit dieser Dinge in Betracht gezogen und getestet, sondern es arbeitete daran, diese Dinge zu zerstreuen, selbst mittels einiger falscher Erklärungen. Diese falschen Antworten waren erfolgreich, weil die meisten Menschen gar nicht wussten, dass sie falsch waren.

3 Fakten über CO2 sind den meisten unbekannt, aber problematisch für das IPCC

Einige grundlegende Fakten über CO2 sind den meisten Menschen unbekannt und illustrieren die Diskrepanzen und Unterschiede zwischen den Behauptungen des IPCC und dem, was die Wissenschaft weiß.

● Der Anteil des natürlichen CO2-Niveaus in der Atmosphäre liegt derzeit unter 0,04% und bei 0,4% aller Treibhausgase. Es ist nicht das bedeutendste Treibhausgas.

● Wasserdampf macht durch Volumen 95% aller Treibhausgase aus. Es ist bei Weitem das bedeutendste Treibhausgas.

● Methan (CH4) ist ein anderes natürliches Treibhausgas, das vom IPCC dämonisiert wurde. Es hat nur einen Anteil von 0,000175% an der ganzen Atmosphäre und 0,036% an den Treibhausgasen.

● Abbildung 1 von ABC News zeigt die falsche Information. Diese Darstellung gilt nur für eine trockene Atmosphäre.

Abbildung 1

● Diese Prozentanteile machten dem IPCC Sorgen. Also hat es die Bedeutung des CO2 vergrößert, indem ein „Beitrag“ pro Einheit geschätzt wurde (Abbildung 2). Die Bandbreite der Schätzungen macht die Messungen effektiv bedeutungslos, es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen genauen Prozentanteil am Treibhauseffekt hat“.

Abbildung 2 (Quelle: Wikipedia)

4 Die menschliche Produktion von CO2 ist kritisch für die IPCC-Objektive. Daher kontrolliert es die Informationen.

Die Erklärung lautet:

Welche Rolle spielt das IPCC bei der Bestandsaufnahme von Treibhausgasen und bei den Berichten an das UNFCCC?

A: Das IPCC hat eine Reihe von Verfahrensberichten zur Bestandsaufnahme nationaler Treibhausgas-Emissionen erzeugt mit der Absicht, international akzeptable Methoden für diese Bestandsaufnahme zur Verfügung zu stellen. Das IPCC übernimmt die Verantwortung, wissenschaftliche und technische Ratschläge zu speziellen Fragen zu erteilen, die mit diesen Methoden der Bestandsaufnahme zusammen hängen oder auf Anforderung des UNFCCC in Übereinstimmung mit etablierten IPCC-Verfahren. Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) [etwa: Programm zur Bestandsaufnahme von Treibhausgasen] zu betreiben, um diese Ratschläge zum Verfahren zu geben. Die Parteien im UNFCCC stimmen überein, die IPCC-Richtlinien bei den Berichten an die Convention zu verwenden.

Wie erstellt das IPCC seine Richtlinien für die Bestandsaufnahme? Unter Verwendung von Methoden des IPCC entwerfen benannte Experten aus der ganzen Welt die Berichte, die dann zweimal extensiv begutachtet werden, bevor sie das IPCC absegnet. Dieses Verfahren stellt sicher, dass die größtmögliche Vielfalt von Meinungen in die Dokumente einfließen.

Es kontrolliert den gesamten Prozess, die Verfahrensweise, die Benennung technischer Ratschläge, die Etablierung von Arbeitsgruppen, Richtlinien für die Berichterstattung, Benennung der Experten, die die Berichte erzeugen bis zur schließlichen Absegnung der Endfassung. Die Zahlen, die sie erzeugen, sind eine Hochrechnung, aber man schätzt, dass Menschen von dieser Zahl 50% entfernen.

Wie auch immer, wenn man die natürlichen Quellen und die Variabilität von CO2 nicht kennt, kann man den menschlichen Anteil nicht ermessen. Man hat behauptet, dass der Anteil in der Atmosphäre durch Verbrennung fossiler Treibstoffe bekannt sei aus dem Verhältnis der Kohlenstoff-Isotope C13/C12. Roy Spencer hat gezeigt, dass dies nicht der Fall war. Außerdem wird die natürliche Verbrennung fossiler Treibstoffe ignoriert, als da wären Waldbrände oder langlebige Kohle- und Torfbrände. Hans Erren zufolge ist fossile Kohle in der Erde begrabenes Holz. Spencer kam zu dem Ergebnis:

Wenn das Verhältnis C13/C12 durch der NATÜRLICHEN Variabilität von Jahr zu Jahr geschuldet ist, wie können dann welche behaupten, dass das Trendsignal VOM MENSCHEN VERURSACHT ist?

Antwort: Um die Hypothese zu beweisen und den Betrug fortzuführen.

5 Druck für dringende politische Maßnahmen

In früheren IPCC-Berichten wurde behauptet, dass die Zeit des Verbleibens von CO2 in der Atmosphäre sehr lang sei. Dies implizierte, dass es weiterhin ein Problem sein würde, selbst bei sofortiger Einstellung aller CO2-Emissionen. Allerdings hat Segalstad geschrieben:

Essenhigh (2009) weist darauf hin, dass das IPCC in seinem ersten Bericht (Houghton et al. 1990) eine CO2-Verweildauer von 50 bis 200 Jahren angegeben hatte (als eine „grobe Schätzung“). Diese Schätzung wird verwirrend als eine Anpassungszeit für ein Szenario mit einem gegebenen menschlichen CO2-Input genannt und ignoriert natürliche CO2-Flussraten (durch Ozean und Vegetation). Solche Schätzungen sind analytisch unsinnig und stehen in Konflikt mit einer korrekteren Erklärung an einer anderen Stelle im gleichen IPCC-Bericht: „Dies bedeutet, dass es im Mittel nur wenige Jahre dauert, bis ein CO2-Molekül in der Atmosphäre durch Pflanzen aufgenommen oder im Ozean gelöst wird“.

6 Verfahren, um Probleme mittels IPCC-Wissenschaft zu verschleiern und den Alarmismus zu erhöhen

IPCC-Verfahren wurden zum Zwecke des Betrugs entwickelt. Das IPCC hat drei Arbeitsgruppen (WG). WG 1 erstellt den Physical Science Basis Report, in welchem bewiesen wird, dass CO2 die Ursache ist. WG 2 erstellt den Impacts, Adaptation and Vulnerability Report [Auswirkungen, Anpassung und Verwundbarkeit]. Er basiert auf dem Bericht von WG 1. WG 3 erstellt den Bericht zur Abschwächung des Klimawandels. Die Arbeitsgruppen 1 und 2 akzeptieren die Behauptung der WG 1, dass die Erwärmung unvermeidlich ist. Sie stellen fest:

Es werden fünf Kriterien für Klimaszenarien gelistet, falls sie für Folgenforscher und Politiker für Entscheidungen nützlich sind: Kriterium 1: Konsistenz mit den globalen Projektionen. Sie sollten konsistent sein mit einer großen Bandbreite von Projektionen der globalen Erwärmung aufgrund zunehmender Konzentrationen von Treibhausgasen. Diese Bandbreite wird in verschiedenen Quellen angegeben mit 1,4°C bis 5,8°C bis zum Jahr 2100 oder 1,5°C bis 4,5°C bei einer Verdoppelung der atmosphärischen CO2-Konzentration (anderswo bekannt als die „Gleichgewichts-Klimasensitivität“).

Sie wussten, dass nur Wenige den wissenschaftlichen Bericht mit seinen eingeräumten ernsten Grenzen lesen oder verstehen würden. Sie haben dessen Veröffentlichung absichtlich verzögert bis nach dem Erscheinen der Summary for Policymakers. David Wojick erklärt:

Unübersehbare Auslassungen sind nur für Experten unübersehbar. Daher werden die „Politiker“ – einschließlich der Medien und der Öffentlichkeit –, die den SPM lesen, nicht erkennen, dass man ihnen nur die eine Seite der Medaille nahebringt. Aber die Wissenschaftler, die den Bericht entworfen haben, kennen die Wahrheit, wie die mitunter sehr kunstvollen Versuche ihrerseits belegen, diese Wahrheit zu verschleiern.

Was systematisch in dem SPM  ausgelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die die Theorie der anthropogenen Einmischung widerlegen könnten. Anstatt diesen Einwänden nachzugehen, stehen in der Summary nur jene Ergebnisse, die die Theorie stützen. Kurz gesagt, dass ist Ideologie, keine Wissenschaft.

Ein Beispiel für diesen Betrug in der SPM liefert der Bericht aus dem Jahr 1995. Im Bericht 1990 und dem Entwurf 1995 hieß es, dass es keine Beweise für einen menschlichen Einfluss gibt. Benjamin Santer hat als Leitautor von Kapitel 8 den Entwurf 1995 seiner Mitautoren ohne deren Wissen verändert. Sie hatten gesagt:

„Während einige der hier diskutierten Dinge die Entdeckung einer signifikanten Klimaänderung behauptet haben, konnte bislang noch keine Studie positiv nachweisen, dass die gesamte Klimaänderung oder ein Teil davon anthropogenen Ursachen zugeordnet werden kann“.

Ben Santer machte daraus:

„Die Masse der statistischen Beweise in Kapitel 8 deuten jetzt auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin, wenn man diese Beweise im Zusammenhang unseres physikalischen Verständnisses des Klimasystems untersucht“.

Die Phrase „erkennbarer menschlicher Einfluss” machte es wie geplant in die Schlagzeilen.

Mit dem AR 5 verschlimmerten sie den Betrug durch die Veröffentlichung einer SPM, der sie eine Korrektur folgen ließen. Sie bekamen die gewollte Schlagzeile. Es ist das gleiche Spiel wie der Unterschied zwischen der Bloßstellung der Probleme im Wissenschaftsreport der WG 1 und der SPM. Die Medien haben nicht über die Korrekturen berichtet, aber das IPCC konnte jetzt behaupten, dass es die Unzulänglichkeiten ihres Berichtes aufgelistet hat. Es ist nicht ihre Schuld, dass die Leute das nicht verstehen.

7 Klimasensitivität

Ursprünglich hatte man angenommen, dass ein konstant steigender atmosphärischer CO2-Gehalt zu einer konstant steigenden Temperatur führen würde. Dann wurde berechnet, dass die ersten paar ppm die Treibhausgas-Kapazität von CO2 bereits erreicht haben. Eschenbach hat die Wirklichkeit dargestellt:

Abbildung 3

Es ist wie schwarze Farbe auf einem Fenster. Um durch ein Fenster fallendes Sonnenlicht abzuschirmen, wird die erste Schicht schwarzer Farbe dazu den Löwenanteil beitragen. Folgeschichten reduzieren das Sonnenlicht nur noch wenig.

Es gab sofort Uneinigkeit über die Höhe der Klimasensitivität durch eine Verdoppelung oder Verdreifachung des atmosphärischen CO2-Gehaltes. Milloy hat eine Graphik konstruiert, der die drei unterschiedlichen Sensitivitäts-Schätzungen miteinander vergleicht (Abbildung 4):

Abbildung 4.

Das IPCC erzeugte eine positive Rückkopplung, um die Temperaturen weiter steigen zu lassen. Es behauptet, dass CO2 zu einer Temperaturzunahme führt, was zu vermehrter Verdunstung führt, und Wasserdampf verstärkt den Temperaturtrend. Lindzen und Choi haben dies in ihrer Studie aus dem Jahr 2011 widerlegt und kamen zu dem Ergebnis, dass „die Ergebnisse zeigen, dass die Modelle die Klimasensitivität übertreiben“.

Die Klimasensitivität hat seitdem immer weiter abgenommen und nähert sich allmählich Null. In einer kürzlichen Studie von Spencer wird behauptet, dass „…das Klimasystem nur halb so sensitiv auf CO2 reagiert wie ursprünglich angenommen“.

8 Die Eisbohrkerne waren grundlegend, aber voller ernster Fehler

Die wesentliche Annahme der abgeleiteten IPCC-Hypothese sagt, dass eine CO2-Zunahme eine Temperaturzunahme bedingt. Nach der Veröffentlichung von Petit et al. (1999) erschienen die Eisbohrkerne aus der Antarktis als Beweis im Bericht 2001 (Abbildung 5):

Abbildung 5. Antarktischer Eisbohrkern

Vier Jahre später ergaben Forschungen das Gegenteil – eine Temperaturzunahme war einer CO2-Zunahme stets vorausgegangen, was ein klarer Widerspruch zur Hypothese war. Dies wurde beiseite geschoben mit der ablenkenden Behauptung, dass der Zeitverzug 80 bis 800 Jahre betrug und damit nicht signifikant sei. Das war so verstörend, dass Al Gore in seinem Film ein betrügerisches Bild erzeugte. Nur wenige Experten haben das bemerkt.

Tatsächlich ändert sich die Temperatur vor einer Änderung des CO2-Gehaltes in jeder Aufzeichnung für jede Periode oder jeden Zeitraum. Abbildung 6 zeigt einen kürzeren Zeitraum (1958 bis 2009) dieses Verhältnisses. Falls eine CO2-Änderung in jeder Aufzeichnung einer Temperaturänderung nachfolgt, warum sind dann alle Computermodelle mit der gegenteiligen Beziehung programmiert worden?

Abbildung 6: Verzögerung für einen kurzen Zeitraum, 1958 bis 2009.

Das IPCC brauchte niedrige vorindustrielle CO2-Niveaus

Ein präindustrielles CO2-Niveau, niedriger als heute, war unabdingbar für die IPCC-Hypothese. Es war genauso nötig wie die Eliminierung der Mittelalterlichen Warmzeit, weil diese gezeigt hat, dass es heute eben nicht wärmer als jemals zuvor war.

Eisbohrkerne sind nicht die einzigen Quellen, die Aufschluss über den präindustriellen CO2-Gehalt geben. Es gibt Tausende direkte Messungen des atmosphärischen CO2-Gehaltes schon im 19. Jahrhundert, genauer seit dem Jahr 1812. Wissenschaftler haben genaue Messungen mit kalibrierten Instrumenten durchgeführt, wie Ernst Beck sorgfältig dokumentiert hat.

In einer an das US Senate Committee on Commerce, Science, and Transportation Hearing übermittelten Studie hat Professor Zbigniew Jaworowski festgestellt:

“Die Basis der meisten IPCC-Ergebnisse bzgl. anthropogener Gründe und Projektionen der Klimaänderung ist die Annahme eines niedrigen CO2-Gehaltes in der präindustriellen Atmosphäre. Diese Annahme ist glaziologischen Studien zufolge falsch“. [1]

Gleichermaßen bedeutsam ist Jaworowskis weitere Feststellung:

Die Auffassung eines niedrigen vorindustriellen CO2-Niveaus, die auf so wenig Wissen beruht, wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise direkter Messungen von CO2 in der Luft, die zeigen, dass die mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (11), Abbildung 2. In Abbildung 2 zeigen die eingekreisten Werte eine verzerrte Auswahl von Daten, die verwendet worden sind um zu zeigen, dass das atmosphärische CO2-Niveau im 19. Jahrhundert 292 ppmv betragen hatte (12). Eine Studie von Stomata in fossilen Blättern aus dem Holozän in Ablagerungen in einem See in Dänemark zeigen, dass der CO2-Gehalt der Atmosphäre vor 9400 Jahren 330 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept eines stabilen und niedrigen CO2-Gehaltes der Luft bis zum Einsetzen der industriellen Revolution (13).

Es gibt noch andere Probleme bei den Aufzeichnungen in Eisbohrkernen. Es braucht Jahre, um Luft im Eis einzuschließen. Was also wurde tatsächlich eingefangen und gemessen? Schmelzwasser, das sich durch das Eis gearbeitet hat, vor allem im oberflächennahen Eis kann die Luftblasen kontaminieren. Bakterien innerhalb des Eises setzen sogar Gase in 500.000 Jahre altem Eis in größeren Tiefen frei. (Dissertation von Brent C. Christner 2002 mit dem Titel [übersetzt]: „Auffinden, Bergung, Isolation und Charakterisierung von Bakterien in Gletschereis und Eis aus dem Wostok-See“). Der Druck des darüber liegenden Eises verursacht eine Änderung in Tiefen unter 50 m, und brüchiges Eis wird plastisch und beginnt zu fließen. Die Schichten, die sich jedes Jahr mit dem Schneefall gebildet haben, verschwinden mit zunehmendem Druck. Man benötigt eine beträchtliche Dicke des Eises über einen langen Zeitraum, um eine einzelne Ablesung in der Tiefe durchführen zu können.

Jaworowski identifizierte die Probleme durch Kontamination und Verlusten während des Bohrungs- und Bergungsprozesses des Eiskerns.

Jaworowskis Behauptung, dass die Modellierer die Messungen des 19. Jahrhunderts ignoriert haben, ist nicht richtig. Sie wussten es, weil T. R. Wigley die Informationen über die Messungen im 19. Jahrhundert schon 1983 zur Verfügung stellte. (Wigley, T.M.L., 1983 “The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Allerdings hat er Werte willkürlich au seiner großen Bandbreite herausgepickt, durchweg hohe Messwerte eliminiert und das vorindustrielle CO2-Niveau von etwa 270 ppm ‘erzeugt’. Ich nehme an, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen zusammen gearbeitet hat als Direktor der Climatic Research Unit CRU in East Anglia. Er war der Vorgänger von Phil Jones und war die Schlüsselfigur, der die durch die Klimagate-E-Mails enthüllten Machenschaften dirigiert hatte.

Wigley war nicht der erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat sie erneut in die Klimagemeinschaft eingeführt. Guy Stewart Callendar, ein britischer Dampftechnik-Ingenieur, brachte die These voran, dass zunehmendes CO2 zu Erwärmung führt. Er tat das, was Wigley getan hat, nämlich nur die Daten auszuwählen, die die Hypothese stützen.

Es gibt 90.000 Messwerte aus dem 19. Jahrhundert, und die Graphik zeigt die sorgfältig von G. S. Callendar ausgewählten Werte, um seine Schätzung zu stützen. Es ist eindeutig, dass er ausschließlich niedrige Werte ausgewählt hat.

Abbildung 7 (nach Jaworowski, Trendlinien hinzugefügt)

Man kann die Änderungen der Neigung und des Trends erkennen, wenn man die ausgewählten Daten mit der Gesamtzahl der Daten vergleicht.

Ernst-Georg Beck bestätigte Jaworowskis Forschungen. In einem Artikel in Energy and Environment wurden die Messwerte sehr detailliert untersucht und die Ergebnisse validiert. Beck kommt zu dem Ergebnis:

Die moderne Treibhaushypothese basiert auf den Arbeiten von G. S. Callendar und C. D. Keeling. Sie folgen damit S. Arrhenius, der vom IPCC popularisiert worden ist. Die Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Anzahl technischer Studien aussortiert und ältere Bestimmungen des atmosphärischen CO2-Gehaltes verworfen haben, weil diese nicht zu ihrer Hypothese passten. Offensichtlich haben sie nur ein paar sorgfältig ausgesuchte Werte aus der älteren Literatur verwendet und ausnahmslos Ergebnisse gewählt, die mit der Hypothese eines CO2-Anstiegs infolge Verbrennung fossiler Treibstoffe konsistent sind.

Das vorindustrielle Niveau liegt um etwa 50 ppm höher als behauptet.

Beck weiter:

„Seit 1812 hat die CO2-Konzentration der Luft in der Nordhemisphäre fluktuiert mit drei Maxima um die Jahre 1825, 1857 und 1942, wobei im letzteren Jahr 400 ppm vorhanden waren“.

Die Herausforderung für das IPCC bestand darin, einen gleitenden Übergang zu erzeugen vom CO2-Niveau in den Eisbohrkernen zu dem auf dem Mauna Loa gemessenen Niveau. Beck zeigte, wie man das gemacht hat, und auch, wie die Messungen des des 19. Jahrhunderts willkürlich ausgewählt werden mussten, um zu den Eisbohrkern- und den Mauna Loa-Daten zu passen (Abbildung 8).

Abbildung 8

Die Variabilität ist extrem wichtig, weil der Eisbohrkern einen außerordentlich glatten Verlauf zeigt, der mittels einer Mittelung über 70 Jahre erreicht worden ist. Selektion und Glättung wurde auch auf die Mauna Loa-Daten angewendet sowie auf alle atmosphärischen Messungen in jüngster Zeit, die auf natürliche Weise im Verlauf eines Tages bis zu 600 ppm variieren. Die Glättung im Maßstab wie bei dem Eisbohrkern eliminiert eine große Menge an Information. Man betrachte die Variabilität der Temperatur der letzten 70 Jahre. Der Statistiker William Brigg sagt, dass man niemals, niemals eine Zeitreihe glätten darf. Die Eliminierung hoher Werte vor der Glättung bringt noch größere Verluste. Beck erklärt, wie Charles Keeling die Mauna Loa-Daten bearbeitet hat, indem er die niedrigsten Messwerte des Nachmittags verwendete und natürliche Quellen ignoriert hat. Beck vermutet, dass Keeling beschlossen hat, diese natürlichen Quellen zu vermeiden, indem er den Messpunkt 4000 m hoch auf dem Vulkan errichtet hat. Beck:

Der Mauna Loa repräsentiert nicht den typischen atmosphärischen CO2-Gehalt in verschiedenen globalen Gebieten, sondern die Werte sind nur typisch für diesen Vulkan in einem Meeresgebiet in einer Höhe von 4000 m in dieser geographischen Breite“. (Beck 2008, „50 Years of Continuous Measurement of CO2on Mauna Loa” Energy and Environment, Vol. 19, No.7.)

Keelings Sohn betreibt jetzt die Messungen am Mauna Loa und, wie Beck anmerkt, „er besitzt das globale Monopol bei der Kalibrierung aller CO2-Messungen“. Er ist Mitautor der IPCC-Berichte, und das IPCC betrachtet alle Messungen am Mauna Loa als repräsentativ im globalen Maßstab.

Als Klimatologe weiß ich um die Notwendigkeit, so viele unabhängige Verifikationen der Daten wie möglich zu erhalten. Stomata sind kleine Öffnungen an Blättern, deren Größe direkt mit der Menge des atmosphärischen CO2 variiert. Sie unterstreichen die Auswirkungen von Glättung und der künstlich niedrigen Ablesungen in den Eisbohrkernen. Ein Vergleich der Stomata mit einem Eisbohrkern über einen Zeitraum von 2000 Jahren (9000 bis 7000 v. Chr.) illustriert dies (Abbildung 9):

Abbildung 9.

Daten aus Stomata zeigen höhere Werte und Variabilität als der exzessiv geglättete Eisbohrkern. Sie passen quantitativ zu den Messungen des 19. Jahrhunderts, wie Jaworowski und Beck zeigen. Das mittlere Niveau des Eisbohrkerns zeigt etwa 265 ppm, während die Stomata etwa 300 ppm nahe legen.

Das vorindustrielle CO2-Niveau war marginal geringer als jetzt und liegt wahrscheinlich innerhalb der Fehlergrenze. Weder diese Werte noch der gegenwärtige Wert von 400 ppm ist hoch im Vergleich mit der geologischen Vergangenheit. Der gesamte Output der Computer-Klimamodelle beginnt mit der Vermutung, dass das vorindustrielle Niveau messbar geringer ist. Die Eliminierung dieser Hypothese unterminiert die Behauptung noch weiter, dass die Erwärmung während der Periode der Industrialisierung Folge einer Freisetzung anthropogenen CO2 in die Atmosphäre war. Man kombiniere dies mit der IPCC-Behauptung, dass CO2 eine Temperaturzunahme bewirkt, wenn alle Aufzeichnungen das Gegenteil zeigen, dann ist es keine Überraschung, dass die IPCC-Vorhersagen steigender Temperaturen konsistent falsch sind.

Der IPCC-Betrug ist vorsätzlich geplant worden, und zwar unter Maurice Strongs Anleitung, um zu beweisen, dass CO2 eine globale Erwärmung hervorruft, was als Begründung für die Schließung industrieller Nationen herhalten muss. Sie haben ihr Ziel teilweise erreicht, wie alternative Energien und grüne Arbeitsplätze belegen. All dies passiert vor dem Hintergrund immer weiter zunehmender Beweise gegen die Hypothese, weil sich die Natur mitzuspielen weigert. CO2 steigt, während die Temperatur fällt, was dem IPCC zufolge nicht sein kann. Politiker müssen nach den Fakten handeln und alle politischen Maßnahmen zurückweisen, die auf der Behauptung basieren, dass CO2 ein Problem ist; vor allem die Maßnahmen, die schon jetzt große Schäden verursachen.

Quelle: The Global Warming Policy Foundation: CCNet 14/10/13

1. [1] “Climate Change: Incorrect information on pre-industrial CO2” Statement written for the Hearing before the US Senate Committee on Commerce, Science, and Transportation by Professor Zbigniew Jaworowski March 19, 2004

Link: http://wattsupwiththat.com/2013/11/13/why-and-how-the-ipcc-demonized-co2-with-manufactured-information/#more-97390

Übersetzt von Chris Frey EIKE




Die Pleite von Warschau: Erlebt Greenpeace gerade sein Warschaugrad?

Bei langdauernden kriegerischen Auseinandersetzungen gibt es zeitweise lange Perioden, in den sich die Gegner in verlustreichen Kämpfen gegenseitig zermürben, ohne dass e seiner Seite gelingt, dem Gegner jenen entscheidenden Schlag zu versetzen, der die Balance des Krieges zugunsten der eigenen Seite neigt. Und dann kommt es oft ganz überraschend zu einem Schlüssel-Ereignis, von dem man oft erst hinterher feststellt, dass es sich dabei um den entscheidenden Wendepunkt handelt, ab dem eine der Seiten nicht mehr die Kraft findet, ihren Gegner wirklich zu gefährden. Ab diesem Moment hat die unterlegen Seite ihre Initiative verloren, muss sich im Wesentlichen auf Defensivmaßnahmen beschränken und kann nur darauf hoffen, dass der Gegner eher bereit ist, einen für ihn vorteilhaften Friedensdeal zu akzeptieren als die enormen Kosten und Risiken einer Fortsetzung des Krieges einzugehen. Einer der bekanntesten Wendepunkte des zweiten Weltkriegs war die Schlacht um Stalingrad, der Punkt, an dem der Vormarsch der bisher anscheinend unaufhaltsamen deutschen Kriegsmaschine gestoppt werden konnte. Die weitere Entwicklung ist bekannt: Der langsame, aber unaufhaltsame Zusammenbruch der deutschen Ostfront bis zur Eroberung Berlins und dem Ende des dritten Reichs.

Nach einer langen und erbitterten Schlacht um die öffentliche Meinung…

Durchaus vergleichbare Wendepunkte der Auseinandersetzung findet man auch bei großen kontrovers geführten Debatten auf geistig-politischem Gebiet. Und mit Blick auf die jahrzehntelangen Bemühungen von Greenpeace, WWF und ihrer zahllosen NGO-Spießgesellen um die Kontrolle der öffentlichen Meinung bezüglich der angeblichen Globalen Erwärmung durch vom Menschen verursachte CO2-Emissionen scheint ein solcher Wendepunkt gerade erreicht worden zu sein. Die UN-Veranstaltung in Warschau, auf der eigentlich weitergehende Maßnahmen zur Verringerung dieser Emissionen hätten beschlossen werden müssen, erlebte eine Reihe klarer Absagen wichtiger Industrienationen, die an dieser Scharade nicht mehr teilnehmen wollen. Andere gaben zwar fleißig Lippenbekenntnisse zur edlen Aufgabe der Rettung des Planeten und des Klimas ab, hielten sich jedoch bei konkreten Zusicherungen auffällig zurück.

Vielleicht werden Historiker, welche die realen Dimensionen des Schlags, den die CO2-Alarmisten in Warschau erhalten haben, in einem leicht fasslichen Schlagwort fassen wollen, hierfür Begriff Warschaugrad prägen. Nach dem quasi vollständigen Scheitern des eigentlichen Hauptziels der Veranstaltung, der Weiterführung von Massnahmen zur Reduzierung des CO2-Ausstoßes, richtete sich die Aufmerksamkeit fast ausschließlich auf finanzielle Aspekte. Dabei ging es letztlich darum, wie hoch die Kompensationszahlungen reicher Nationen sein sollten, welche die ärmeren Länder als Ausgleich für angeblich vom CO2-Ausstoß der Reichen verursachten Schäden durch Klimakatastrophen einfordern konnten. Dabei wurden selbst Ereignisse wie Tornados und Hurrikane, welche eindeutig nicht dem CO2 in die Schuhe geschoben werden können, als Argument aufgeführt. Möglicherweise wird die Liste bei kommenden Veranstaltungen noch um Asteroideneinschläge, Vulkanausbrüche, Erdbeben und Tsunamis erweitert werden…

Fakt ist: Die Veranstaltung degenerierte zu einem reinen Gezänk ums Geld und wurde vor einem vollständigen Scheitern nur durch einen Formelkompromiss sowie einen Trick der EU-Vertreter bewahrt, welche den ärmsten Ländern schnell noch 100 Mio. € zuschoben, woraufhin diese umfielen. Wie üblich durfte Deutschland dabei den Zahlmeister spielen, indem es dazu rund 1/3 der Gesamtsumme beisteuerte.

..scheint die CO2-Lüge an Strahlkraft zu verlieren

Die klare Botschaft von diesem kläglichen Ausgang und dem entsprechenden Echo in den Medien dürfte die sein, dass die von Greenpeace und ihren zahlreichen Verbündeten in staatlichen Institutionen, wissenschaftlichen Einrichtungen und den Medien vertretene Lüge über den angeblich nachteiligen Einfluss des CO2 auf das Klima offensichtlich an Strahlkraft verliert. Die Gier allzu zahlreicher Profiteure hat inzwischen zu einem derartigen Ausmaß an Kosten und einem wachsenden Rattenschwanz an technischen Problemen in Schlüsselindustrien geführt, dass es zu einem Schwenk der öffentlichen Meinung zumindest in einigen aufgeklärteren Ländern wie Australien gekommen ist. Natürlich wurde, ganz wie auch im oben angeführten historischen Beispiel, der letzte Schuss noch nicht abgefeuert bzw. das letzte Wort noch nicht gewechselt, aber von jetzt an dürften sich die Vertreter der Theologie von der menschengemachten globalen Erwärmung (Anthropogenic Global Warming, AGW) auf dem absteigenden Ast befinden.

Während einige führende Politiker wie Fr. Merkel immer noch eisern an dem einmal eingeschlagenen Kurs in der Energiepolitik festhalten, wird es insgesamt doch immer deutlicher, dass eine wachsende Zahl wichtiger Länder wie Kanada, Australien und Japan bereits dabei sind, den Ausstieg aus dem Klima- und CO2-Unsinn zu vollziehen. Und mit diesen ersten Rissen im bisher dichten ideologischen Bollwerk, das die Zweifel der Skeptiker – oft auch als Klimaleugner verunglimpft – zurückhalten sollte, dürfte die weitere Entwicklung ähnlich beschleunigt verlaufen wie bei einem Dammbruch. Möglicherweise kommt es zu einer regelrechten Stampede hochqualifizierter Schwätzer und akademischer Scharlatane, die aus den bisher sicher geglaubten Pöstchen im Staatsapparat und in NGO’s herausgespült werden und sich gezwungen sehen, hektisch nach neuen Betätigungsfeldern zu suchen.

Greenpeace sucht bereits nach neuen Geschäftsmodellen

Ein ziemlich deutliches Signal, dass die Führungskader bei Greenpeace und anderen NGO’s diese Gefahr bereits erkannt haben, zeigt sich in den offenkundigen Bemühungen um die Aktivierung neuer Geschäftsfelder. Entsprechende Versuchsballons werden zur Zeit von prominenten Vertretern der Organisation wie Monika Griefahn z.B. in Fernsehinterviews lanciert. Angesichts einer Situation, in der die Öffentlichkeit die Lust daran zu verlieren scheint, immer mehr Geld in dem „schwarzen Loch“ der CO2-Bekämpfung zu versenken, werden offensichtlich neue Themen gesucht, mit denen man vorgeben kann, den Planeten vor der Menschheit zu retten, wobei die Aufrechterhaltung des bisherigen Zuflusses an Spendengeldern eine zentrale Rolle spielt. Zu den Aufgabenstellungen, die sich hierfür eignen dürften, gehört das Thema Plastikmüll in den Ozeanen. Hierzu wurden auch schon unterschiedliche Varianten entwickelt, beispielsweise Mikro-Plastikpartikel, die über die Nahrungskette wieder in die menschliche Nahrung gelangen, oder die Vergiftung von Fischlebern durch Plastik-Inhaltsstoffe. Andere Themen, die in letzter Zeit eher auf Sparflamme gehalten wurden, aber jederzeit wieder reaktiviert werden können sind beispielsweise Feinstäube, Pharmazierückstände in Flüssen oder auch die Geräuschpegel, welche mit gewerblichen Aktivitäten sowie dem Transport von Menschen und Gütern unvermeidlicherweise auftreten, Stichwort z.B. Frankfurter Flughafen. Man darf gespannt sein, mit welchen Argumenten die Herrschaften uns wieder die Bettelschale vorhalten werden, wenn die CO2-Masche irgendwann gar nicht mehr zieht.

Chinas Cleverness

Wenn man sich in Erinnerung ruft, wie sich die Schuldzuweisungen bezüglich der CO2-Emissionen bei solchen UN-Konferenzen in den letzten zwei Jahrzehnten entwickelt haben, so muss man seinen Hut vor der Cleverness ziehen, mit der China es geschafft hat, sich aus der Schusslinie zu bringen. Und das trotz der Tatsache, dass das Land im Rahmen seiner bemerkenswerten wirtschaftlichen Expansion inzwischen zum weltweit grössten CO2-Emittenten aufgestiegen ist. Dennoch hatte es in diesem Jahr geschafft, derartigen Vorwürfen nahezu völlig zu entgehen. Erreicht wurde dies durch die Schaffung einer Allianz aus ärmeren und in Entwicklung befindlichen Ländern, die sich durch aggressive Forderungen nach Kompensationszahlungen in mehrstelliger Milliardenhöhe von westlichen Industrieländern hervortat, während sie in ihrer Mitte CO2-Gorillas wie China und auch Indien abschirmten. Nach Ansicht einiger Beobachter gelang es selbst den Diplomaten der USA lange Zeit nicht, in diese Einheitsfront einen Keil zu treiben. Erst die Europäer schafften es in letzter Sekunde, mithilfe einer Zusage von 100 Mio. € die ärmsten Länder aus dieser Gruppierung auf ihre Seite zu ziehen. Dennoch blieb China das mediale Spießrutenlaufen, dem sich andere Teilnehmer ausgesetzt sahen, weitgehend erspart. Man darf gespannt sein, welche Lehren die Meister des Lächelns und der leisen Töne aus dieser Erfahrung ziehen und bei der nächsten Konferenz einsetzen werden.

Wohin geht das das kluge Geld?

Eine weitere interessante Entwicklung, die man parallel zum Verlauf des Warschauer Gipfels beobachten konnte, war eine Änderung im Investitionsverhalten der Börsen als mögliche Reaktion auf das Debakel der AGW-Vertreter. Man mag zu Börsianern stehen wie man will, aber sie sind Meister im Aufspüren künftiger Trends. Zwar kann es noch Jahre dauern, bis sich die Klimarettungsambitionen heute führender Politiker wie der EU-Kommissarin Conny Hedegaard oder des Präsidenten Obama abgenutzt haben. Diese Leute haben sich unter Missachtung der Gesetze der Physik, der Märkte und des gesunden Menschenverstandes viel zu tief in diese Sackgasse verrannt, als dass sie jetzt noch ohne Gesichtsverlust zurück könnten. Doch das kluge Geld scheint schon jetzt die Botschaft verstanden zu haben: Aktien von Uranminen, die seit den Ereignissen von Fukushima ständige Kursverluste erlitten haben, weisen plötzlich teils erhebliche Kurssteigerungen auf. Dies mag sehr wohl ein Signal dafür sein, dass die bisherige Talfahrt gestoppt wurde und eine Bodenbildung stattgefunden hat. Zusammen mit Nachrichten wie der, dass in Spanien – einst ambitionierter Vorkämpfer für „erneuerbare“ Energien – Betreiber von Fotovoltaikanlagen für den Eigenbedarf künftig eine spezielle Gebühr bezahlen sollen, solange sie zur Absicherung ihrer Gesamtversorgung ihren Anschluss an das Stromnetz aufrechterhalten, könnte dies vielleicht dazu führen, dass Bankfinanziers nach und nach „Erneuerbare“ Projekte als riskant einstufen. Auf der anderen Seite ist nicht auszuschliessen, dass Investitionen in Aktien von Uran- und Kohleminen sowie von Herstellern und Betreibern konventioneller Kraftwerkstechnologie nach einer langen Durststrecke jetzt langsam wieder an Attraktivität gewinnen.

Fred F. Mueller

Update der Redaktion:

Die Deutschen Wirtschaftsnachrichten berichten auch über Warschau..Auszug:

Nichts als Streit: Weltklima-Konferenz in Warschau gescheitert

Aus Protest haben Nichtregierungsorganisationen aus aller Welt, darunter der BUND, Greenpeace und WWF, die Veranstaltung in Polen verlassen. BUND-Vorsitzender Hubert Weiger erklärt in einer Aussendung:

„Die verantwortungslose Untätigkeit der Regierungen angesichts der schon heute dramatischen Ausmaße des Klimawandels hat uns keine andere Wahl gelassen. Mit unserem Boykott wollen wir auf den in dieser Form noch nie dagewesenen Einfluss der Wirtschaftsverbände auf den Klimaschutzprozess aufmerksam machen. Die fossile Industrie hat die Klimakonferenz in Warschau okkupiert und macht es damit unmöglich, im Klimaschutz voranzukommen“.

Um wieder Vertrauen in die internationale Klimadiplomatie aufzubauen, müsse derLobbyismus der Wirtschaft drastisch eingeschränkt werden, so Weiger.

Zeitgleich zu den streitenden Klima-Rettern fand in Warschau eine Veranstaltung des privaten „Europäischen Instituts für Klima und Energie“ (EIKE) mit Vortragenden aus Deutschland, Polen und den USA statt.

Die Klima-Skeptiker hatten es diesmal deutlich leichter: Sie übergossen die Klima-Retter mit Spott und Häme – und das Chaos auf der aus Steuergeldern finanzierten Veranstaltung scheint ihnen recht zu geben. Die Themen des Vorträgelauteten „Die Katastrophe der UN Klima- und Energiepolitik“ oder „Der UN-Klimarat: Eine Schande für die Wissenschaft“.




Aus dem deutschen Stromparadies in den Blackout!

Ohne Feuer, Strom und Treibstoffe müssten wir alle noch unter den Bedingungen der frühen Steinzeit leben in Höhlen oder in Baumhütten ohne Licht und ohne ein wärmendes Feuer. Nur mit Hilfe der Energie können wir auch den Winter ertragen, haben jederzeit Licht, können in einer Stunde Strecken überwinden, für die früher mehr als eine Woche gebraucht wurden. Mit Strom wird heute Energie an fast jeden beliebigen Ort geliefert. Ohne Strom gibt es keinen Kühlschrank, keine Spülmaschine, keine Waschmaschine, kein Radio und Fernsehen, kein Internet und I-Phone, keine Zentralheizung, kein fließendes Wasser und keine Abwasserbeseitigung. Für uns ist Strom heute ein nicht verzichtbarer Grundbedarf, genau wie das tägliche Brot. Mit der „Energiewende“ droht uns aber der Black Out.

Die Leistung des Menschen

Der Mensch ist ein schwaches Lebewesen. Seine Leistungsfähigkeit liegt bei lächerlichen 100 Watt (W). Pferde leisten sieben- bis achtmal mehr. Sie brauchen aber auch mehr Nahrung. Wenn ein Mensch jeden Tag des Jahres 10 Stunden arbeitet, hat er eine Arbeit (mechanische Energie) von 350 Kilowattstunden (kWh) erbracht. In Europa liegt heute der Primär-Energieverbrauch bei 50.000 kWh pro Einwohner und Jahr. Das heißt, jeder Europäer nutzt die Arbeit von rund 150 Menschen. Wenn man berücksichtigt, dass ein Großteil der Primärenergie als Wärme genutzt oder verloren geht, nutzt jeder von uns immer noch die Arbeitskraft von 60 Menschen. Vor 200 Jahren hatten selbst Fürsten und Könige häufig nicht so viele Diener.

Heute geht es uns allen daher in vieler Hinsicht besser als den Königen vor 200 Jahren.

Wir reisen zum Beispiel viel schneller und bequemer als damals zu Pferd oder in Kutschen. Nachrichten, die früher erst nach Monaten eintrafen,  gehen fast kostenlos und sekundenschnell um den Erdball. Die Beispiele kann man beliebig fortsetzen.

Mangel an mechanischer Energie

Das Feuer, die Wärmeenergie, nutzte der Mensch mit der Menschwerdung. (Der Mensch erhebt sich aus der Tierwelt durch die Sprache und die Energienutzung). Er konnte sich Wärmen und Essen bereiten. Auch das Brennen von Ton zu Steinzeug war eine frühe Erfindung. Als mechanische Energie gab es zunächst nur die geringe Arbeitskraft der Menschen. Der Einsatz von Pferden, Eseln und Ochsen war dann eine kleine Verbesserung. Die Erfindung der Wind- und Wassermühlen führte zu einem deutlichen Fortschritt. Die Anlagen waren jedoch ortsgebunden. Mahlgut musste zu den Mühlen gekarrt oder geschleppt werden. Wassermühlen gab es nur an Wasserläufen mit ausreichendem Gefälle. Die Wege dorthin waren oft weit. Die Windmühlen arbeiteten nur, wenn Wind wehte. Das hat sich bis heute nicht geändert.

Trotz dieser Verbesserungen war mechanischer Energie weiter Mangelware. Menschen mussten die meiste Arbeit verrichten. Die Lösung waren Sklaven. Es gab Sklaven auf der ganzen Welt von China über Europa bis nach Mexiko. In Europa hießen die Sklaven Leibeigene oder Untertanen, die zu Arbeitsleistungen für die Herrschaft verpflichtet waren. Viele Kriege wurden geführt, um Sklaven zu gewinnen. Mehr als die Hälfte der Einwohner im antiken Rom waren Sklaven.

Die Sklaverei wurde nicht von Politikern oder durch humane Forderungen abgeschafft. Die Erfindung von James Watt, die Umwandlung von Wärmeenergie in mechanische Energie mit der Dampfmaschine, beendete die Sklaverei. Mechanische Energie wurde durch die Dampfmaschine so billig, dass Sklavenarbeit einfach zu teuer war. Auch die Hungerjahre wurden mit dieser Erfindung besiegt. In Gebieten mit Missernten durch Überschwemmungen, Dürren, Spätfröste oder Insektenplagen hatten die Menschen nicht mehr genug im Winter zu essen. Mit den drei Kilometer pro Stunde langsamen Ochsenkarren konnte aus den angrenzenden Überschussgebieten nicht genug Nahrungsmittel heran geschafft werden. Viele Menschen verhungerten. Mit der Dampfmaschine auf Rädern, der Eisenbahn, war der Transport ausreichender Nahrungsmittel in die Hungergebiete kein Problem mehr.

 

Strom, der universelle Energietransport

Mit dem von Siemens erfundenen elektro-dynamischen Prinzip, dem Generator, konnte mechanische Energie in Strom umgewandelt und mit Drahtleitungen einfach und preiswert zu den Verbrauchern transportiert werden, um dort Licht, Wärme, mechanische Energie oder andere Energieformen zu erzeugen. Strom selbst ist keine Energie, sondern ein Energietransport. Daher lässt sich Strom auch nicht speichern. Er muss zum Zeitpunkt seiner Erzeugung auch verbraucht werden. (Die Speicherkraftwerke speichern mechanische Energie, Wasserstoff ist ein Brennstoff, Warmwasserspeicher speichern Wärmeenergie).

Vor gut 100 Jahren wurden Stromleitungen in die Häuser gelegt. Damit fing ein neues Zeitalter an. Mit einer Schalterdrehung war der Raum sofort erleuchtet. Das langwierige und gefährliche Hantieren mit Kerzen war vorbei. Dieser Luxus kostete richtig Geld. Für eine Kilowattstunde (kWh) musste ein Facharbeiter eine Stunde arbeiten. Die Beleuchtung seiner Wohnung mit 15 Watt Lampen kostete ihm fast einen Monatslohn im Jahr. Doch die Kosten gingen schnell zurück. 1975 war die Kilowattstunde mit 0,9 Minuten eines Facharbeiterlohns am Günstigsten. Doch dann wurden die Abgaben auf Strom erhöht. Die auf Glauben und nicht auf Realitäten beruhenden Maßnahmen gegen den angeblich von Menschen verursachten Klimawandel verteuerten mit der unwirtschaftlichen und unsozialen Energiewende den Strom kräftig weiter. Heute muss ein Facharbeiter wieder 1,5 Minuten für eine kWh arbeiten. Und er braucht wesentlich mehr Strom für die wachsende Zahl der Elektrogeräte.  Die Stromkosten werden damit zu einer immer größeren Belastung. Die Haushalte, die Ihre Stromrechnung nicht mehr bezahlen können, nähern sich der Millionengrenze. Sie erleiden durch die Abschaltung des Stromes unfreiwillig und vorzeitig den Black Out, der uns allen durch die unsinnige Energiewende droht.

Mit Strom beleuchten wir nicht nur unsere Wohnungen. Er wird zum Kochen, Kühlen und Gefrieren genutzt. Er treibt Waschmaschinen und Spülmaschinen und viele Küchengeräte. Radio, Fernsehen und Internet laufen nur mit Strom. Die Zentralheizung wird mit Strom gezündet und gesteuert, das Wasser wird mit Elektropumpen zum Verbraucher gedrückt und das Abwasser zur Kläranlage. Mit Strom können wir Temperaturen bis 5.000 Grad Celsius erzeugen. Wir können damit Schweißen und Löten und viele hochschmelzende Metalle erzeugen. Für uns ist es selbstverständlich, aus einer Steckdose die Arbeitskraft von 20 Menschen problemlos  zu zapfen. 

Wir  können heute auf Strom nicht mehr verzichten, ohne unseren Lebensstandard erheblich einzuschränken. Die vielen elektrischen Küchengeräte und die Kühlketten für Lebensmittel haben zu einer wesentlichen Arbeitsentlastung im Haushalt geführt. Nur so konnte es zu einer Emanzipation der Frauen kommen; denn ohne die zahlreichen elektrischen Hilfsmittel hätte die Hausfrau einen zehnstündigen Arbeitstag, um das Essen für die Familie zu bereiten und das Haus und die Wäsche zu säubern.

Stromverteuerung ist unsozial

Phantasten, wie die Mitglieder des Club of Rome, aber auch viele Politiker in Deutschland, fordern mit unbewiesenen Katastrophenszenarien eine Verringerung des Energieverbrauchs unter dem Deckmantel der Weltklimarettung. Dazu sollen Elektrogeräte mit höherer Effizienz, also geringeren Verlusten dienen. Doch solche Geräte können sich nur Reichere leisten. Die vielen Mitbürger, die gerade ihren Lebensunterhalt bestreiten können, müssen weiter mit ihren billigen Elektrogeräten leben, die viel Strom fressen. Es wird auch nicht über die alternde Bevölkerung nachgedacht, die immer mehr elektrisch angetriebene Hilfsmittel braucht, weil menschliche Hilfe bei der abnehmenden Kinderzahl nicht mehr ausreichend zur Verfügung steht. Wir werden also in Zukunft noch mehr Elektrogeräte betreiben und dafür noch mehr Strom brauchen. Eine Reduzierung des Stromverbrauchs um ein Drittel, wie es von Politikern gefordert wird, ist eine Utopie.

Sozial ist der Abbau der vielen gesetzlichen Abgaben auf den Strom. Dazu gehört die Stromsteuer, die hohen Einspeisevergütungen nach dem Erneuerbaren Energien Gesetz (EEG), die durch den Ökostrom verursachten höheren Netzkosten, die Kosten für Kohlenstoffdioxid (CO2) Zertifikate, die Brennelemente-Steuer der Kernkraftwerke, die Abgabe für die Kraft-Wärmekopplung, die Umlage für abschaltbare Lasten und die Offshore-Umlage. Als Nächstes kommt noch die Bereitstellungsgebühr für Dampfkraftwerke und Gaskraftwerke, die gebraucht werden, wenn der Wind nicht weht und die Sonne nicht scheint. Auf diese staatlich verordneten Kosten kommt noch die Mehrwertsteuer von 19 Prozent, die dem Staat rund 5 Milliarden Euro pro Jahr in die Kassen spült.

„Ohne die staatlich verordneten Abgaben, die mit einer unsinnigen und unbewiesenen Ideologie zur Klimarettung begründet werden, kostet unser Strom weniger als die Hälfte der derzeitigen Preise und er bleibt zuverlässig.“ sagt Heinrich Duepmann, der Vorsitzende der Stromverbraucherschutz-Bewegung NAEB e.V. „NAEB fordert daher die sofortige Abschaffung des EEG und die Reduzierung der Mehrwertsteuer auf 7 Prozent, die auch sonst auf alle Grundbedürfnisse gezahlt wird.“

www.naeb.info

Übernommen von mmnews




Palmströms Axiom

Das IPCC justiert seine Kurzzeit-Prognose der Erwärmung nach unten

Von Bob Tisdale

Dieser Beitrag zeigt ein weiteres Mal, wie dürftig die Klimamodelle eine der wichtigsten Klimavariablen simulieren: die globale erdnahe Lufttemperatur. Der Beitrag ist als PDF [in Englisch] herunterladbar, falls ihn jemand als Anhang meinem E-Buch Climate Models Fail beifügen möchte. Mein Beitrag No Matter How the CMIP5 (IPCC AR5) Models Are Presented They Still Look Bad war zusammen damit auf WattsUpWithThat hier veröffentlicht worden. Wenn man durch den WUWT-Kommentarbereich durchblättert, wird man folgenden Kommentar von Bill Illis finden:

Bill Illis says:

October 5, 2013 at 6:10 am (Edit)

Jochem Marotzke vom Max Planck Institut sagte in einem Vortrag vor der Royal Society zum IPCC-Zustandsbericht:

“Als Folge der Pause [bei der Erwärmung] … wurde im Kapitel 11 des IPCC Berichts die Einschätzung der Bandbreite der kurzfristig erwarteten Erwärmung aus dem CMIP5 „Roh“-Modell nach unten erweitert. Dies zusätzlich zu einer 10%-Verminderung, weil einige Modelle eine Klimasensitivität enthalten, die etwas zu hoch ist.“

http://environmentalresearchweb.org/cws/article/news/54904

Klar doch: Wenn wir uns die Abbildungen des IPCC (Abb. 11.9 (meine Abb. 1) und Abb. 11.25 (meine Abb. 2)) anschauen, sehen wir, wie das IPCC die Kurzfrist-Vorhersagen heruntergesetzt hat – ohne die Langzeit-Prognosen zu ändern.

Abb 1 (Volle Größe hier.)

Abb. 2 (Volle Größe hier.)

Das IPCC erläutert die Abbildungen (Figures 11.9 und 11.25) im Kapitel 11 des 5. Zustandsberichts (6MB .pdf). Abbildung 11.9 wird auf Seite 24/123 (Adobe Acrobat Seitennummerierung) behandelt unter der Überschrift “11.3.2 Near-Term Projected Changes in the Atmosphere and Land Surface” und in der Teilüberschrift “11.3.2.1.1 Global mean surface air temperature.”

Abbildung 11.9 befindet sich auf Seite 102/123.

Die Erläuterungen der Abb. 11.25 stehen unter der Überschrift “11.3.6.3 Synthesis of Near-Term Projections of Global Mean Surface Air Temperature” auf Seite 53/123 ff.

Abb. 11.25 befindet sich auf Seite 120/123.

Der Artikel vom 3. Oktober 2013, den Bill Illis mit dem EnvironmentalResearchWeb der Royal Society meeting discusses IPCC fifth assessment report verlinkte, wurde von Liz Kalaugher geschrieben. Zu Jochem Marotzke wurde in diesem Artikel angemerkt:

Jochem Marotzke vom Max Planck Institut für Meteorologie war Mitglied des IPCC-Teams, das wissenschaftliche Belege für Temperatur-Trends während der jüngsten zehn bis 15 Jahre sammelte.

In jenem Artikel versuchte Jochem Marotzke die Bedeutung der Pause herunterzuspielen:

“Derartige Perioden kommen immer wieder in den Aufzeichnungen vor, aber an dieser letzten hat sich eine enorme Debatte entzündet,” wie Marotzke vor den Delegierten der Royal Society sagte. “Heißt diese Pause, dass die globale Erwärmung zum Stillstand gekommen ist? Nein. Das Klimasystem erwärmt sich weiter. Das Meereis schmilzt weiter, die Ozeane nehmen weiter die Wärme auf, der Meeresspiegel steigt weiter.”

Aber, wenn “derartige Perioden immer wieder in den Aufzeichnungen vorkommen,” warum muss dann das IPCC die „Einschätzung der Bandbreite der kurzfristig erwarteten Erwärmung aus dem CMIP5 „Roh“-Modell nach unten …“ erweitern und dazu noch eine 10%-Verminderung einführen, weil einige Modelle eine Klimasensitivität enthalten, die etwas zu "hoch“ sei?
Und wenn das so häufig vorkommt, warum musste das IPCC dann eigens ein Team bilden, das „wissenschaftliche Belege für Temperatur-Trends während der jüngsten zehn bis 15 Jahre“ sammeln sollte?

Die Antwort auf beide Fragen ist, dass die KLIMAMODELLE die in den Aufzeichnungen der Temperatur bestehenden multidekadalen Veränderungen NICHT SIMULIEREN können. Diese multidekadalen Veränderungen werden als etwa dreißigjährige Erwärmungsperioden mit nachfolgenden dreißigjährigen Perioden ohne Erwärmung interpretiert. Das haben wir in diesen Beiträgen behandelt: IPCC Still Delusional about Carbon Dioxide und Will their Failure to Properly Simulate Multidecadal Variations In Surface Temperatures Be the Downfall of the IPCC? (Hierzu auch Beiträge in hier und hier.)

Jene multidekadalden Veränderungen sind in der Öffentlichkeit bekannt und deshalb habe ich (im „Downfall“-Beitrag) den Unterschied zwischen der IPCC-Projektion der Temperatur-Anomalie auf der Nordhemisphäre und der Vorstellungen in der Öffentlichkeit über das Eintreten der Erwärmung beruhend auf den vergangenen Veränderungen geschrieben … Dabei habe ich angenommen, dass sich die Temperatur zukünftig weiter erwärmen wird (Abb 3.)

Abb. 3

Die Öffentlichkeit weiß auch, dass die IPCC-Modelle auf die Aufwärtsbewegung einjustiert wurden, die sich in den Mitt-1970ern einstellte (Mauritsen, et al. (2012) Tuning the Climate of a Global Model) [gebührenpflichtig]. Hier ist ein Nachdruck. Dabei habe ich den Fehler gemacht, den Einfluß von multidekadalen Perioden ohne Erwärmung auf die IPPC-Langzeit-Prognosziererei (bis 2100) nicht zu berücksichtigen.

Abschließend: Meines Wissens hat das IPCC seine Langzeit-Prognosen nicht auf der Grundlage der verminderten Kurzfrist-Vorhersagen heruntergesetzt.

Die Ergänzung 3 zu den Klimamodellen ist falsch (SUPPLEMENT 3 TO KLIMAMODELLS FAIL)

Wer die Beiträge zu meinem Buch Klimamodells Fail als PDFs sammelt, kann diesen Beitrag hier herunterladen.

Supplement 1 ist hier. Es ist ein Nachdruck des Beitrags Models Fail: Land versus Sea Surface Warming Rates.

Supplement 2 ist hier. Es ist ein Nachdruck des Beitrags IPCC Still Delusional about Carbon Dioxide.

Originalartikel hier.

Bob Tisdale stellt sich in seiner Webseite vor:

Ich bin unabhängiger Klimaforscher und Autor des E-Buches: “Who Turned on the Heat?”. Dort wird erklärt und illustriert, wie und warum die Daten zur Meerestemperatur und zur Wärmeaufnahme der Ozeane natürlich zu Stande kamen und nicht als Folge von menschengemachten Treibhausgasen. Ich schreibe regelmäßig für eine weltweit am meisten aufgesuchte Webseite über den Klimawandel: WattsUpWithThat.

Übersetzung: Helmut Jäger, EIKE