IPCC-Arbeitsgruppe 3 und Greenpeace-Karaoke

Ich zum Beispiel war brennend daran interessiert, wie das IPCC zu dem Potential von 80% gekommen war. In Fortsetzung der widerwärtigen Praktiken des IPCC wurden unglücklicherweise die stützenden Dokumente für diese Studie zu den Erneuerbaren zum Zeitpunkt dieser Ankündigung nicht zugänglich gemacht. (Lediglich die Zusammenfassung für Politiker war verfügbar zu der Zeit). Dies zeigte einen Sorgen machenden Aspekt der Ankündigung. Der Bericht basierte auf 164 „Szenarien“, und das „bis zu 80%-Szenario“ im einführenden Satz ihrer Presseerklärung war für diese Szenarien nicht repräsentativ, sondern nur das absolute äußerste Maximum. Diese Art von Presseerklärung ist unzulässig, und es bleibt für mich unverständlich, warum so etwas bei akademischen Presseerklärungen oder solchen durch internationale Organisationen toleriert wird.
Die Veröffentlichung des zugrunde liegenden Berichtes war für den 14. Juni vorgesehen und wurde dem gemäß auch heute bekannt gemacht. Natürlich war ich am Ursprung dieses 80%-Szenarios interessiert und daran, welche außerordentliche Sorgfalt [due diligence] das IPCC an den Tag gelegt hatte, um vor der Veröffentlichung in der Presseerklärung festzustellen, wie realistisch dieses Szenario war. Ich hegte wider besseres Wissen die Hoffnung, dass es etwas mehr war als nur eine Coverversion des IPCC für eine Studie von Greenpeace, aber ich wurde enttäuscht.
Die Szenarien finden sich in Kapitel 10 des Berichtes. Autoren dieses Kapitels waren (hauptsächlich Deutsche):
CLAs -Manfred Fischedick (Deutschland) und Roberto Schaeffer (Brasilien).
Leitende Autoren: Akintayo Adedoyin (Botswana), Makoto Akai (Japan), Thomas Bruckner (Deutschland), Leon Clarke (USA), Volker Krey (Österreich/Deutschland), Ilkka Savolainen (Finnland), Sven Teske (Deutschland), Diana Ürge?Vorsatz (Ungarn), Raymond Wright (Jamaica).
Die 164 Szenarien beziehen sich auf einen gerade erst veröffentlichten und bezahlten [paywalled?] Artikel von zwei der leitenden Autoren (Krey und Clarke 2011, Klimapolitik). Update – seit man sich seitens des IPCC auf diesen Artikel verlassen hat, wurde er hier offiziell gemacht [liberated].
Im Kapitel 10 wurden vier Szenarien isoliert, um sie detaillierter zu beschreiben. Eines davon kann mit dem Szenario in der Presseerklärung des IPCC identifiziert werden. Die Identifikation erfolgt auf der Basis von Tabelle 10.3, die 77% Erneuerbare bis 2050 für das ER-2100-Szenario zeigt, wie es Teske et al. 2010 zugeschrieben wird. (Teske ist ein weiterer leitender Autor von Kapitel 10). Dieses Szenario wird folgendermaßen beschrieben:
Niedriger Bedarf (z. B. durch eine signifikante Zunahme der Energieeffizienz) in Kombination mit einer hohen Entfaltung der Energierevolution, keine Verwendung von CCS und einem Auslaufen nuklearer Energie bis 2045 in der dritten, abgemilderten Version, beschleunigter Energierevolution (ER) 2010 (Teske et al. 2010; im Folgenden ER-2010).
Teske et al. – online hier wird folgendermaßen zitiert:
Teske, S., T[homas] Pregger, S[onja] Simon, T[obias] Naegler, W[ina] Graus, und C[hristine] Lins (2010). Energy [R]evolution 2010—ein nachhaltiger Ausblick auf die Weltenergie. Energieeffizienz, doi:10.1007/s12053-010-9098-y.
Allerdings führte mich das Googeln dieses Titels zunächst zu einem anderen Artikel mit fast gleicher Überschrift: ‚Energie(r)evolution 2010 – EIN NACHHALTIGER GLOBALER AUSBLICK AUF DIE WELTENERGIE‘, online hier. Diese Version ist eine gemeinsame Publikation von Greenpeace und des European Renewable Energy Council [etwa: Europäischer Rat für erneuerbare Energien], der sich selbst als ‚Dachorganisation der Industrie für erneuerbare Energie‘ bezeichnet. Die Titelseite zeigt:
project manager & lead author: Sven Teske
EREC: Oliver Schäfer, Arthouros Zervos,
Greenpeace International: Sven Teske, Jan Béranek, Stephanie Tunmore
research & co-authors: DLR, Institute of Technical Thermodynamics, Department of Systems Analysis and Technology Assessment, Stuttgart, Germany: Dr. Wolfram Krewitt, Dr. Sonja Simon, Dr. Thomas Pregger.
DLR, Institute of Vehicle Concepts, Stuttgart, Germany: Dr. Stephan Schmid
Ecofys BV, Utrecht, Niederlande: Wina Graus, Eliane Blomen.
Das Vorwort zu dieser Greenpeace-Studie  stammt von einem gewissen R. K. Pachauri, der darin feststellt:
Diese Zusammenstellung von Szenarien der Energie(r)evolution stellt eine detaillierte Analyse des Potentials der Energieeffizienz sowie ausgewählte Transportmöglichkeiten zur Verfügung. Das Material, das in dieser Publikation präsentiert wird, stellt eine brauchbare Basis dar, um sich spezifische politische Maßnahmen und Entwicklungen zu überlegen, die nicht nur für die Welt als Ganzes wertvoll sind, sondern auch für verschiedene Länder in ihrem Versuch, die globale Herausforderung, der sie sich gegenüber sehen, anzunehmen. Die auf den folgenden Seiten beschriebenen durchgeführten Arbeiten sind umfassend und rigoros, und selbst diejenigen, die dieser Analyse nicht zustimmen, könnten vielleicht durch eine vertiefte Studie der zugrunde liegenden Hypothesen profitieren, sind sie doch mit spezifischen Szenarien der Energiezukunft  verbunden.
Dr. R. K. Pachauri
DIRECTOR-GENERAL, THE ENERGY AND RESOURCES INSTITUTE (TERI) AND CHAIRMAN, INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE (IPCC)
Kehren wir nun zu der Originalpresseerklärung des IPCC zu den Erneuerbaren zurück:
Einem aktuellen Bericht zufolge kann nahezu 80% des Weltenergiebedarfs bis zur Mitte des Jahrhunderts durch Erneuerbare zur Verfügung gestellt werden, falls sie durch richtige politische und öffentliche Maßnahmen unterstützt werden.
Die Basis für diese Behauptung ist ein von Greenpeace entworfenes Szenario. Der leitende Autor, der dieses Greenpeace-Szenario begutachtet hatte, war der gleiche Mitarbeiter von Greenpeace, der die Greenpeace-Szenarien vorbereitet hatte, zu denen der IPCC-Vorsitzende Pachauri seine Einführung geschrieben hatte.
Die Öffentlichkeit und die Politiker hungern nach einer unabhängigen und maßgebenden Analyse dazu, wie viel Gewicht genau den Erneuerbaren in der Energiezukunft beigemessen werden kann. Sie erwarten mehr von der IPCC-Arbeitsgruppe 3 als eine Karaoke-Version eines Greenpeace-Szenarios.
Es ist vollkommen inakzeptabel, dass das IPCC einen Greenpeace-Mitarbeiter als einen leitenden Autor des kritischen Kapitels 10 bestellt, und dass dieser Greenpeace-Mitarbeiter als leitender Autor des IPCC sozusagen dafür verantwortlich ist, seine eigene Arbeit zu begutachten (wie es Michael Mann und Keith Briffa in vergleichbaren Situationen getan haben), und dass ein solches mit einer solchen mangelhaften und nicht-unabhängigen ‚außerordentlichen Sorgfalt‘ entworfenes Greenpeace-Szenario in einer Presseverlautbarung des IPCC zum Thema Erneuerbare erscheint.
Jeder Einzelne in der Arbeitsgruppe 3 des IPCC sollte abgelöst werden, und falls die Institution am Leben gehalten werden soll, muss sie ohne diese Kratzer neu strukturiert werden.
Dieser Beitrag wurde von Steve McIntyre geschrieben und am 14. Juni 2011geposted, gelistet unter Uncategorized und unterder Rubrik IPCC, renewables, wg3. Bookmark den permalink. Follow any comments here with the RSS feed for this post. Post a comment or leave a trackback: Trackback URL.
Link: http://climateaudit.org/2011/06/14/ipcc-wg3-and-the-greenpeace-karaoke/
Übersetzt von Chris Frey für EIKE




CDU/CSU Energiepolitischer…. Dialog der Abzocker. Gastbeitrag von Vera Lengsfeld Ex CDU MdB

Das erste Impulsreferat hielt der Staatsekretär im Wirtschaftsministerium Homann. Es war eine Zeitreise. Seit den realsozialistischen Tagen unseligen Angedenkens habe ich nicht mehr einen solchen planwirtschaftlichen Vortrag vernommen, mit allem, was dazu gehört, realitätsfernen Planzielen, samt Festlegungen, wodurch sie zu erreichen seien. Ganz wohl war dem Beamten nicht dabei, deshalb riß es ihn zu einigen brisanten Aussagen aus dem wirklichen Leben hin: die „finanziellen Folgen der Energiewende seinen unabsehbar“, es gäbe „keine belastbaren Zahlen“, was das alles kosten würde, „nicht einmal Schätzungen“. Er referierte über den politischen Beschluss, den Ausbau der Erneuerbaren Energien zu forcieren und wies gleichzeitig darauf hin, dass die Netzkapazität für die bereits installierte Leistung längst nicht mehr ausreicht. Das heißt, der forcierte Ausbau der „Erneuerbaren“ wird kaum ein anderes Resultat haben, als das gegenwärtige Netzchaos noch zu verstärken. Jede verantwortliche Regierung würde den Ausbau der „Erneuerbaren“ stoppen, bis adäquate Netze zur Verfügung stehen. Das Kabinett Merkel jedoch, das seinen „Handlungsbedarf“ aus dem Reaktorunglück in Fukushima und denn Vorgaben der von ihr eingesetzten „Ethikkommission“ ableitet, verfährt nach dem sozialistischem Muster, dass der politische Wille erfüllt werden muss, egal, was es kostet, oder wie die Realität aussieht. 
Welche Schwierigkeiten es dabei gibt, entnimmt man, auch wie zu sozialistischen Zeiten, aus den Botschaften, die sich zwischen den Zeilen verbergen: die beiden am häufigsten wiederkehrenden Begriffe im Referat waren „Versorgungssicherheit“ und „Bezahlbarkeit“. Da weiß zumindest der gelernte DDR-Bürger, dass beides in den Sternen steht. Über Versorgungssicherheit ist im Westteil unseres Vaterlandes seit Gründung der BRD nicht mehr geredet worden, weil sie selbstverständlich war. Die DDR-Bürger lasen diesen Begriff im „Katastrophenwinter“ 1978/78 häufiger bei Kerzenlicht in den SED-Parteizeitungen, als immer öfter der Strom abgeschaltet werden musste, weil die realsozialistische Misswirtschaft nicht in der Lage war, die Grundversorgung zu sichern. 
Was die „Bezahlbarkeit“ betrifft, so machte die zweite Referentin, Katharina Reiche, Staatssekretärin im Umweltministerium, die ihren Minister vertreten musste, den ich gern gefragt hätte, woher er denn weiß, dass die Energiewende nicht mehr als 39 € pro Kopf kosten würde, eine aufschlussreiche Bemerkung. Noch, sagte sie, sei man bemüht, die „Umlage stabil zu halten“, aber dieses „gegenwärtige Ziel“ sei im Anbetracht der vielen Wünsche und Forderungen nach mehr Förderung wohl nicht einzuhalten. Reiche bemühte sich auch, den Eindruck zu erwecken, die Partei Ludwig Ehrhards würde sich weiterhin bemühen, irgendwann marktwirtschaftliche Elemente in das Staatsplan-Konstrukt „Energiewende“ einzuführen. Es war aber allzu offensichtlich reine Rhetorik. 
Das wurde in der nachfolgenden Diskussion ganz offensichtlich. Einer nach dem anderen standen die Vertreter der Erneuerbaren Energiebranche auf und meldeten weitergehenden Förderbedarf an. Es ging zu wie auf dem Weihnachtsbasar. Jeder lieferte seinen prall gefüllten Wunschzettel ab, gepaart mit der Erwartung, dass die Wünsche umgehend und in vollem Umfang erfüllt werden müssten. Die Damen und Herren Profiteure der größten Umverteilung von unten nach oben ließen durchblicken, dass sie keine Moralkeule zu schwingen sich scheuen würden, damit das Steuer-, und Abgabengeld weiter munter in ihre weit geöffneten Kassen fließt. 
Der Markt ist für sie schon deshalb das größte Übel, weil sie sich auf ihm nicht behaupten können. Sie wollen es auch gar nicht. Staatliche Zuwendungen fließen schließlich unabhängig von der Leistung und dem erzielten Ergebnis. Back in the GDR- und das nach nur zwanzig Jahren. Willkommen in Angelas Alptraum. 
Vera Lengsfeld
mit freundlicher Genehmigung zuerst erschienen auf ACHGUT




Meldung des PIK: „Meeresspiegel steigt so schnell wie seit 2000 Jahren nicht“ entpuppt sich als Ente! Daten zeigen keine Änderung!

….Die Klima-Katastrophen-Auguren verkünden heute in den Medien zum x-ten Mal die Überflutung der Kontinente, n i c h t  auf der Basis von Messungen  (die zeigen das Gegenteil! s.w.u.), sondern auf der Basis von Sediment-Analysen;
h i n z u  kommt: es handelt sich um eine ausgewählte kleine Küstenregion, von der die Autoren auf alle weltweiten Meere schließen!
    in der Original-Presse-Miteilung heißt es nämlich dazu :
"… Das zeigt eine Untersuchung von Ablagerungen an der US-Atlantikküste – …"

Update: Nicht nur der chronisch klimakatastropengläubige WDR fällt auf diese Ente herein. Aber der besonders:


Sehen Sie hier ganz aktuell die Verbreitung dieser Ente durch den WDR II. Mit Dank an Solarkritik.de

Das ganze Gegenteil zeigen weltweit die MESSUNGEN(!!) von Pegeln und Satelliten:

(1) GLEICHZEITIG  zur o.a. Verlautbarung erscheint soeben im US-Coastel Journal der hier beigefügte Artikel, in dem auf der Basis von Pegel-Messungen klipp+klar das Gegenteil bewiesen wird:

"Der weltweite Temperaturanstieg hat keine Beschleunigung des globalen Meeresspiegelanstieges verursacht, sondern wahrscheinlich sogar eine Entschleunigung in den vergangenen 80 Jahren."


hier die gesamte undefinedPublikation :
(2) EUMETSAT hat kürzlich die aktuellen GLOBALEN Daten/Messungen zum Meeres-Spiegel veröffentlicht -ERGEBNIS: Von einem beschleunigten Meeresspiegelanstieg keine Spur !

(3) Zum gleichen Ergebnis kommt das GFZ Potsdam :

Die GFZ-Daten beweisen darüber hinaus, daß es überhaupt keinen globalen einheitlichen Meerestrend gibt, sondern stets auch riesige Areale mit fallendem Meeresspiegel !
(4) Anhand der langjährigen zuverlässigen Pegel von Norderney + Cuxhaven kommen in Niedersachsen  die Landesregierung und der Niedersächsische Landesverband NLWKN auch für die Nordseeküste  zu der klaren Aussage, daß es keine Beschleunigung des Meeresspiegelanstiegs gibt :

(5) Arbeiten des Institutes für historische Küstenforschung Wilhelmshaven
kommen ebenfalls zu ganz anderen Ergebnissen:

Danach : Der Meeresspiegel ist in den vergangenen Jahren nie so langsam gestiegen, wie im 20. Jahrhundert ! …von einer Beschleunigung keine Spur.
(6) Ein Autorenteam der NASA  hat kürzlich eine Arbeit publiziert, aus der u.a. zwei Dinge klar hervor gehen:
(a) Es existiert kein beschleunigter Meeresspiegelanstieg,
(b) die Meerestemperatur zeigt einen abnehmenden(!) Trend,
     folglich existiert auch kein thermisch beschleunigter Meeresspiegelanstieg :

(7) Auch das IPCC hat offensichtlich die gleichen Erkenntnisse, denn von Bericht zu Bericht wurde die Prognoserate des Meeresspiegels für 2100 zurück genommen  –  auf mittlerweile unter 40 cm :

Berücksichtigt man, daß dem Autorenteam weltweit als Alarmisten bekannte Autoren wir Michael Mann (Hockey-Stick-Erfinder), Stefan Rahmstorf (PIK) et al.
angehören, so sind erheblich Zweifel an der Aussagekraft dieses neuen Weltuntergangs-Papiers angebracht.
Eine jüngst erschienene kritische Auseinandersetzung mit dem neuerlichen Meeres-Spiegel-Alarmismus findet sich auch hier:
Klaus-Eckart Puls EIKE
Weiterführender Link z.B hier: Mann´s neues Meeresspiegel Hockeystick Papier
oder hier eine lesenswerte Besprechung des Aufsatzes von Michael Krüger auf Science Skeptical




Ab in die Zukunft: Wie sieht die Versorgung mit Windenergie bis 2050 aus?

Die Grafik 1 zeigt die Windstromerzeugung  vom 1.3.2011 bis 31.3.2011.

Man kann folgende Datenpunkte entnehmen (Angaben in Gigawatt) :

1. Maximale Windleistung 19GW

2. Minimale Windleistung 0,1GW

3. Mittlere Leistung 4,1GW

4.Installierte Windleistung 27,214GW

5.Installierte Windkraftanlagen 21.607 –5443-

6.Geleistete Arbeit 3057GWh

7.Nutzungsgrad 15%

Um die ungleichmäßige Windstromerzeugung zu glätten und damit in einen kontinuierlichen Leistungsfluß zu erreichen ist die elektrische Arbeit, die grün über der roten Mittelwertmarke gezeigt ist, dem Netz zu entnehmen und zu speichern und in dem Bereich, der weiss unterhalb der roten Mittelwertlinie dargestellt ist, dem Speicher wieder zu entnehmen und dem Netz zuzugefügen. Die obere grüne Fläche ist gleich groß wie die untere weisse Fläche. Für diese Aufgabe stehen gegenwärtig Pumpspeicherwerke mit einer maximalen Leistung von 7GW für Pump- und Generatorbetrieb zur Verfügung. Um die Windleistung oberhalb der mittleren Leistung im Pumpbetrieb einspeichern zu können ist aber eine maximale Pumpleistung von 14,9GW erforderlich.

Erforderliche Pumpleistung =Maximale Windleistung – Mittlere Windleistung

Da die Pumpleistung sowie die Speicherkapazität der vorhandenen Pumpspeicherwerke, als blaue Fläche in der Grafik zum Vergleich dargestellt,  nicht ausreicht um die weissen Flächen zu füllen, wäre schon jetzt der Zubau an Pumpspeicherwerken auf die Größe von 14,9GW Pumpleistung erforderlich.

Da der Windstrom fast vollständig in Norddeutschland gewonnen wird und Standorte für Pumpspeicherwerke wegen der erforderlichen Fallhöhe nur in Süddeutschland gefunden werden könnten, was ja kaum möglich ist, muss also, um einen gleichmäßigen Leistungsfluß von 4,1GW aus Windenergie zu erreichen 14,9GW nach Süddeutschland gebracht und als Pumparbeit eingespeichert werden können. Eine solche Belastung für ein Hochspannungsnetz nur zur Speicherung ist einmalig auf der Erde. Die maximale Generatorleistung der Pumpspeicherwerke müßte bei 4,0 GW liegen.

Maximale Generatorleistung = Mittlere Windleistung – Minimale Windleistung

Die Einspeicherungskapazität der Pumpspeicherwerke müßte bei ca. 330GWh liegen. Das ist notwendig um die als weisse Fläche unterhalb der roten Linie dargestellte Arbeit abzudecken. Der Wert 330GWh ist eine Abschätzung der Größe der weissen Fläche unterhalb der roten Linie. Dazu teilt man die untere Datumsskala statt in Tage in Stunden ein und kann dann die in diesen Bereich fallende Arbeit durch Multiplikation von Leistung und Zeit errechnen. Heute sind ca. 56GWh Pumpspeicherkapazität installiert.

Speicherkapazität = 7GW * 8h =56GWh.

Wie man auch sehen kann reicht am Monatsanfang die grüne Fläche nicht aus um die weissen Flächen unter der roten Mittelmarke zu füllen. Es ist also ein vorausschauendes Speichermanagement erforderlich um Reserven im Vormonat anzulegen. Gedankenspiele der Politik Speicher in Norwegen zu bauen kann man als Utopie abhaken. Dann würden die Leitungen gegen den Willen der Bevölkerung durch Norwegen, Schweden und Dänemark oder als Kabel durch die Nordsee gehen müssen. Der dafür erforderliche Netzausbau ist riesengroß und dieses Beispiel zeigt ja nur den heutigen Zustand im März 2011. Von Netzverlusten und Wirkungsgraden soll in diesem Bericht, obwohl sie wichtig sind, nicht die Rede sein. Schon heute kann die Netzstabilität wegen fehlender Speicher nur von fossilen oder nuklearen Kraftwerken garantiert werden. In dieser Situation geht nun die Bundesregierung daran und will Deutschland voll auf Wind und Sonne umstellen.

Ich habe jetzt folgendes gemacht. Ich habe die Grafik 1 umgerechnet auf den gleichen Monat des Jahres 2050. Zufällig sind in diesem Monat die gleichen Windverhältnisse wie 2011. Man hat kräftig neue Windkraftanlagen gebaut. Die installierte Leistung ist jetzt gleich mit der Maximalleistung von 80GW mit 63524 (16000) Windkraftanlagen.

Inst. Windkraftanl.2050 (Inst.Windleistung2050/Inst.Windleistung2011) x Inst.Windkraftanl.2011

Wo die in Nord-und Ostsee stehen sollen weiß nur die Bundesregierung.

Die Grafik 2 zeigt die Windstromerzeugung  vom 1.3.2050 bis 31.3.2050.

Sie ist durch die Multiplikation der Werte vom 2011 mit 2,94 entstanden.

2,94=Inst.Windleistung2050/Inst.Windleistung2011

Man kann folgende Datenpunkte entnehmen:

1. Maximale Windleistung 56GW

2. Minimale Windleistung 0,3GW

3. Mittlere Leistung 12,05GW

4.Installierte Windleistung 80GW

5.Installierte Windkraftanlagen 63524  (16000)

6.Geleistete Arbeit 8986GWh

7.Nutzungsgrad 15%

Pumpspeicherwerke konnten in der vergangenen Zeit nicht gebaut werden wegen Standortmangel und Bürgerprotest. Auch die Norweger haben sich nicht so gezeigt wie die deutschen Politiker es gerne gesehen hätten. Für die Berechnung tu ich mal so als wäre tüchtig gebaut worden. Jetzt muss mit einer maximalen Pumpleistung von 43,95GW eingespeichert werden.

Erforderliche Pumpleistung =Maximale Windleistung – Mittlere Windleistung

Für das Hochspannungsnetz ist diese Belastung einmalig auf der Welt da sie ja nur fürs Speichern erforderlich ist. Eine Utopie !!! Die maximale Generatorleistung der Pumpspeicherwerke beträgt 11,75GW.

Maximale Generatorleistung = Mittlere Windleistung – Minimale Windleistung

Eine Vollversorgung Deutschlands mit Windenergie ist nicht möglich. Dafür müßten im März 2050 406524 (106231) Windkraftanlagen installiert sein.

Erford.Windkraftanl.=(80 GW / mittlereWindleistung) x Inst.Windkraftanl.

Wie schon 2011 muß der Bereich zwischen mittlerer Leistung und tatsächlicher Leistung mit überwiegend fossilen oder nuklearen Energien abgedeckt werden. Wieviele Pumpspeicherwerke brauchen wir denn jetzt ? Nehmen wir als Beispiel die Anlage Goldisthal. Diese hat eine Leistung von 1,05GW und kann diese Leistung ca.8 Stunden liefern. Dann ist der Speicher leer.  Das ist eine Speicherkapatität von ca.8,4 GWh. Um den Monat März zu überstehen müssen wir 44 Anlagen dieser Art bauen, denn die Pumpleistung einer Anlage ist 1,05 GW, wir müssen aber 43,95 GW einsetzen um zu Speichern. Um die Abgabeleistung zu erreichen müßten wir 12 Anlagen bauen.

Maximale Generatorleistung = Mittlere Windleistung – Minimale Windleistung

Dazu gehört auch ein gewaltiger Netzausbau um die Leistung von 43,95GW von Norddeutschland an die Standorte der Pumpspeicherwerke in Süddeutschland zu bringen. Alles gegen den Willen der Bevölkerung. Völlige Utopie !!!

Da ja keine Pumpspeicherwerke gebaut werden konnten geht das nicht, daher muss jetzt wieder die fossile oder nukleare Energie ran. Man hat also in Windkraft Milliarden Euro investiert und ist keines der ungeliebten Dampfkraftwerke losgeworden. Aber Kohle, Oel und Nuklear will die Bundesregierung 2050 nicht mehr haben, dafür sollen gasgefeuerte GUD-Kraftwerke mit CCS-Technologie gebaut werden. Wieviele brauchen wir denn ? Die größte von Siemens lieferbare Anlage  SCC5-8000H 1S hat eine Leistung von 570MW. Um 80GW abdecken zu können müßten 140 Werke gebaut werden. Das ist alles gigantisch und utopisch. Weiss die Bundesregierung auch wieviel flüssiges CO2 anfällt und wo es bleiben soll, für alle Ewigkeit und gegen den Willen der Bevölkerung ? Ich fürchte das weiss sie nicht .

Ökofreunde werden jetzt nach Photovoltaik rufen. Aber die hat täglich  schlimmere Probleme als die Windenergie. Wie ist es mit Biogas, BHKW, Erdwärme, Sonnenkraft aus der Sahara, Wasserstoff, Luftspeicherkraftwerke. Alle diese Dinge haben nicht das Potenzial 80GW abzudecken und noch viel wichtiger, alle diese Dinge können nicht die Netzstabilität gewährleisten. Darunter ist zu verstehen:

1.Netzfrequenz

2.Netzspannung

3.Kurzschlußleistung

4.Blindleistungskompensation

5.Schwarzstartfähigkeit (nur Luftspeicher,Laufwasser oder Pumpspeicher)

Wer bis jetzt nicht die Unsinnigkeit des Vorhabens nicht bemerkt hat bekommt jetzt die volle Ladung. Jetzt kommt die Berechnung für den Idealfall Vollversorgung mit Windenergie im Hochlastbereich im Winter 2050 mit dem Wind vom März 2050 :

 

1. Maximale Windleistung 371GW (Utopie)

2. Minimale Windleistung 2GW  (Utopie)

3. Mittlere Leistung 80GW entspricht der maximalen Netzlast

4.Installierte Windleistung 531GW (Utopie)

5.Installierte Windkraftanlagen 406524 = 0.86km2/WKA (Utopie) 106231 = 3.3km2/WKA (Utopie)

6.Installierte Leistung GuD 80 GW

7.Installierte Anlagen GuD 140

8.Installierte Speicherpumpen 291GW = 277 mal Goldisthal (Utopie)

9.Installierte Speichergeneratoren 80GW = 76 mal Goldisthal (Utopie)

Die Bundesregierung setzt auf ein grosses Einsparpotenzial, will aber bis zu 40 Millionen PKW als Elektrofahrzeuge auf die Strasse bringen. Eine absolute Horrorvorstellung und Utopie.Wir können nur hoffen das die Bundesregierung weiss was sie macht. Ich fürchte sie weiss es nicht. Über die Kosten mache ich mir keine Gedanken. Die werden über das EEG an den Stromverbraucher weitergegeben. Null Problemo !!!!

Jetzt zu dem Geheimnis der fett gesetzten Zahlen. Die Berechnungen gingen von dem Bestand an WKA des Jahres 2011 aus. Zu dieser Zeit gab es noch kleine WKA die man 2050 nicht mehr bauen würde und die auch 2050 nicht mehr existieren. Ich habe daher die Anzahl der WKA umgerechnet auf eine mittlere Leistung von 5MW/WKA und diesen Wert als blaue Zahl in den Text gestellt. Trotzdem sind die sich egebenden Stückzahlen gigantisch.

Da ich jetzt soweit gekommen bin mit meinen Überlegungen kommt mir der Gedanke  :  Windkraftanlagen haben ja nur eine Lebensdauer von 20 Jahren. Wir brauchen dann ein Management für Bau und Abriss von WKA. Da kommen Ewigkeitskosten wie im Ruhrgebiet auf uns zu.

Wenn wir 2010 mit dem Bau von 400 WKA/Jahr kontinuierlich angefangen hätten wären wir im Jahr 2030 schon bei 8000 Stück angelangt. Nur sind die ältesten WKA jetzt 20 Jahre alt und müssen abgerissen werden. Wiederum mit 400St/Jahr, so dass im Jahr 2050 keine dieser Anlagen mehr da ist. Gleichzeitig müssen wir ab 2030 die Produktion von WKA auf 800 Stück/Jahr steigern damit wir 2050 auf 16000 Stück kommen. Die ersten die wir 2030 bauen sind 2050 schon 20 Jahre alt und müssen abgerissen und ersetzt werden. Es ist  also die Produktion von WKA auch nach 2050 für die Ewigkeit auf 800Stück/Jahr zu halten. Die Kosten werden sich auf ca. 20 Mrd.€/Jahr belaufen. Dazu kommen die Abrisskosten von Schätzungsweise 10% des Neuwertes also nochmals 2 Mrd.€/Jahr. Auch über diese Kosten mache ich mir keine Gedanken. Die werden über das EEG an den Stromverbraucher weitergegeben. Null Problemo !!!!

Grafik 1

Grafik 2

Michael Treml für EIKE

Prozessleittechiker und Windkraftkenner mit 40 jähriger Erfahrung in Kraftwerkstechnik 

jetzt im Ruhestand

Related Files




Die Chaos-Theorie selbst zieht der Klimamodellierung den Boden unter den Füßen weg.

Was ist Chaos? Ich benutze diesen Ausdruck hier in seiner mathematischen Bedeutung. So, wie in den vergangenen Jahren die Naturwissenschaftler weitere Aggregatzustände der Materie entdeckten (neben fest, flüssig, gasförmig, nun auch plasma),  so wurden von der Wissenschaft neue Zustände entdeckt, die Systeme annehmen können.

Systeme von Kräften, Gleichungen, Photonen oder des Finanzhandels können effektiv in zwei Zuständen existieren:

Einer davon ist mathematisch zugänglich, die zukünftigen Zustandsformen können leicht vorhergesagt werden; im anderen aber passiert scheinbar Zufälliges.
Diesen zweiten Zustand nennen wir “Chaos”. Es kann gelegentlich in vielen Systemen eintreten.
Wenn Sie z. B. das Pech haben, einen Herzanfall zu erleiden, geht der normalerweise vorhersehbare Herzschlag in einen chaotischen Zustand über, wo der Muskel scheinbar zufällig schlägt. Nur ein Schock kann ihn in den Normalzustand zurücksetzen. Wenn Sie jemals ein Motorrad auf einer eisigen Fahrbahn scharf abgebremst haben, mussten Sie ein unkontrollierbares Schlagen des Lenkrads befürchten, eine chaotische Bewegung, die meist zu einem Sturz führte. Es gibt Umstände, wo sich die Meereswogen chaotisch bewegen und unerklärlich hohe Wellen erzeugen.
Die Chaos-Theorie ist das Studium des Chaos und weiterer analytischer Methoden und Messungen und von Erkenntnissen, die während der vergangenen 30 Jahre gesammelt worden sind.
Im Allgemeinen ist Chaos ein ungewöhnliches Ereignis. Wenn die Ingenieure die Werkzeuge dafür haben, werden sie versuchen, es aus ihrem Entwurf „heraus zu entwerfen“, d. h. den Eintritt von Chaos unmöglich zu machen.
Es gibt aber Systeme, wo das Chaos nicht selten, sondern die Regel ist. So eines ist das Wetter. Es gibt weitere, die Finanzmärkte zum Beispiel, und – das ist überraschend – die Natur. Die Erforschung der Raubtierpopulationen und ihrer Beutetierpopulationen zeigt z. B. das sich diese zeitweilig chaotisch verhalten. Der Autor hat an Arbeiten teilgenommen, die demonstrierten, dass sogar einzellige Organismen Populationschaos mit hoher Dichte zeigen können.
Was heißt es also, wenn wir sagen, dass sich ein System anscheinend zufällig verhalten kann? Wenn ein System mit dem zufälligen Verhalten anfängt, wird dann das Gesetz von Ursache und Wirkung ungültig?
Vor etwas mehr als hundert Jahren waren die Wissenschaftler zuversichtlich, dass jedes Ding in der Welt der Analyse zugänglich wäre, dass alles vorhersagbar wäre, vorausgesetzt man hätte die Werkzeuge und die Zeit dazu. Diese gemütliche Sicherheit ist zuerst von Heisenbergs Unschärfeprinzip zerstört worden, dann durch Kurt Gödels Arbeiten, schließlich durch Edward Lorenz, der als Erster das Chaos entdeckte. Wo? natürlich bei Wetter-Simulationen.
Chaotische Systeme sind nicht gänzlich unvorhersagbar, wie wirklich Zufälliges. Sie zeigen abnehmende Vorhersagbarkeit mit zunehmender Dauer, und diese Abnahme wird durch immer größer werdende Rechenleistung verursacht, wenn der nächste Satz von Vorhersagen errechnet werden soll. Die Anforderungen an Rechnerleistung zur Vorhersage von chaotischen Systemen wächst exponentiell. Daher wird mit den verfügbaren begrenzten Möglichkeiten die Genauigkeit der Vorhersagen rapide abfallen, je weiter man in die Zukunft prognostizieren will. Das Chaos tötet die Ursache-Wirkungs-Beziehung nicht, es verwundet sie nur.

Jetzt kommt ein schönes Beispiel.

Jedermann hat ein Tabellenkalkulationsprogramm. Das nachfolgende Beispiel kann jeder selbst ganz einfach ausprobieren.
Die einfachste vom Menschen aufgestellte Gleichung zur Erzeugung von Chaos ist die „Logistische Karte“ (logistic map).
In einfachster Form: Xn+1 = 4Xn(1-Xn)
Das bedeutet: der nächste Schritt in Folge gleicht 4 mal dem vorhergehenden Schritt mal (1 – vorhergehender Schritt). Wir öffnen nun ein Blatt in unserer Tabellenkalkulation und bilden zwei Spalten mit Werten:

Jede Spalte A und B wird erzeugt, indem wir in Zelle A2 eingeben [=A1*4* (1-A1)], und wir kopieren das nach unten in so viele Zellen, wie wir möchten. Das gleiche tun wir für Spalte B2, wir schreiben [=B1*4* (1-B1)]. Für A1 und B1 geben wir die Eingangszustände ein. A1 erhält 0.3 und B1 eine ganz gering verschiedene Zahl: 0.30000001.
Der Graph zeigt die beiden Kopien der Serien. Anfänglich sind sie synchron, dann beginnen sie bei etwa Schritt 22, auseinander zulaufen, von Schritt 28 an verhalten sie sich völlig unterschiedlich.
Dieser Effekt stellt sich bei einer großen Spannweite von Eingangszuständen her. Es macht Spaß, sein Tabellenkalkulationsprogramm laufen zu lassen und zu experimentieren. Je größer der Unterschied zwischen den Eingangszuständen ist, desto rascher laufen die Folgen auseinander.
Der Unterschied zwischen den Eingangszuständen ist winzig, aber die Serien laufen allein deswegen auseinander. Das illustriert etwas ganz Wichtiges über das Chaos. Es ist die hohe Empfindlichkeit für Unterschiede in den Eingangszuständen.
In umgekehrter Betrachtung nehmen wir nun an, dass wir nur die Serien hätten; wir machen es uns leicht mit der Annahme, wir wüssten die Form der Gleichung, aber nicht die Eingangszustände. Wenn wir nun Vorhersagen von unserem Modell her treffen wollen, wird jede noch so geringe Ungenauigkeit in unserer Schätzung der Eingangszustände sich auf das Vorhersage-Ergebnis auswirken und das in dramatisch unterschiedlichen Ergebnissen. Der Unterschied wächst exponentiell. Eine Möglichkeit zur Messung gibt uns der sogenannte Lyapunov-Exponent. Er misst in Bits pro Zeitschritt, wie rasch die Werte auseinanderlaufen – als Durchschnitt über eine große Zahl von Samples. Ein positiver Lyapunov-Exponent gilt als Beweis für Chaos. Er nennt uns auch die Grenze für die Qualität der Vorhersage beim Versuch der Modellierung eines chaotischen Systems.
Diese grundlegenden Charakteristiken gelten für alle chaotischen Systeme.
Und nun kommt etwas zum Nachdenken. Die Werte unseres einfachen Chaos-Generators im Kalkulationsblatt bewegen sich zwischen 0 and 1. Wenn wir 0.5 subtrahieren, sodass wir positive and negative Werte haben, und dann summieren, erhalten wir diesen Graphen. Der ist jetzt auf tausend Punkte ausgedehnt.

Wenn ich nun ohne Beachtung der Skalen erzählt hätte, das wäre der Kurs im vergangenen Jahr für eine bestimmten Aktie, oder der jährliche Meerestemperaturverlauf gewesen, hätten Sie mir vermutlich geglaubt. Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.

Wie steht es also mit dem Wetter?

Edward Lorenz (1917 – 2008) ist der Vater der Chaosforschung. Er war auch Wetterforscher. Er schuf eine frühe Wetter-Simulation, indem er drei verkoppelte Gleichungen benutzte und er war erstaunt, dass die Simulationswerte mit dem Fortschritt der Simulation über der Zeit unvorhersehbar wurden.
Dann suchte er nach Beweisen, ob sich das tatsächliche Wetter in der gleichen unvorhersehbaren Weise verhielt. Er fand sie, bevor er noch mehr über die Natur des Chaos entdeckte.

Kein Klimatologe bezweifelt seine Erkenntnis vom chaotischen Charakter des Wetters.

Edward Lorenz schätzte, dass das globale Wetter einen Lyapunov-Exponenten gleich einem Bit von Information alle 4 Tage zeigt. Das ist ein Durchschnitt über die Zeit und über die globale Oberfläche.  Zuweilen und an gewissen Stellen ist das Wetter chaotischer, das kann jedermann in England bezeugen. Das bedeutet aber auch, dass, falls man das Wetter mit einer Genauigkeit von 1 Grad C für morgen vorhersagen kann, die beste Vorhersage für das Wetter für den 5. Folgetag bei +/- 2 Grad liegen wird, für den 9. Tag bei +/-4 Grad und den 13. Tag bei +/- 8 Grad. Auf jeden Fall wird die Vorhersage für den 9-10. Tag nutzlos sein. Wenn Sie aber das Wetter für Morgen mit einer Treffsicherheit von +/- 0.1 Grad vorhersagen könnten, dann würde die Zunahme des Fehlers verlangsamt. Weil sie aber exponentiell steigt, wird auch diese Vorhersage bereits nach wenigen weiteren Tagen nutzlos sein.
Interessanterweise fällt die Treffsicherheit der Wettervorhersagen von Institutionen, wie z. B. dem englischen Wetterdienst, genau in dieser Weise ab.  Das beweist einen positiven Lyapunov-Exponenten und damit, dass das Wetter chaotisch ist, wenn es noch eines Beweises bedurft hätte.

Soviel zur Wettervorhersage. Wie steht es mit der Langzeit-Modellierung?

Zuerst zur wissenschaftlichen Methode. Das Grundprinzip ist, dass die Wissenschaft sich so entwickelt, dass jemand eine Hypothese formuliert, diese Hypothese durch ein Experiment erprobt und sie modifiziert, sie beweist oder verwirft, indem er die Ergebnisse des Experiments auswertet.Ein Modell, ob nun eine Gleichung oder ein Computer-Modell, ist nur eine große Hypothese. Wenn man die mit der Hypothesenbildung betroffene Sache nicht durch ein Experiment modifizieren kann, dann muss man Vorhersagen mit dem Modell machen und am System selbst beobachten, ob die Vorhersagen damit zu bestätigen oder zu verwerfen sind.##Ein klassisches Beispiel ist die Herausbildung unseres Wissens über das Sonnensystem. Bei den ersten Modellen standen wir im Mittelpunkt, dann die Sonne, dann kam die Entdeckung der elliptischen Umläufe und viele Beobachtungen, um die exakte Natur dieser Umläufe zu erkennen. Klar, dass wir niemals hoffen konnten, die Bewegungen der Planeten zu beeinflussen, Experimente waren unmöglich. Aber unsere Modelle erwiesen sich als richtig, weil Schlüsselereignisse zu Schlüsselzeiten stattfanden: Sonnenfinsternisse, Venusdurchgänge usw. Als die Modelle sehr verfeinert waren konnten Abweichungen zwischen Modell und Wirklichkeit benutzt werden, um neue Eigenschaften vorherzusagen. Auf diese Art konnten die äußeren Planeten Neptun und Pluto entdeckt werden. Wenn man heute auf die Sekunde genau wissen will, wo die Planeten in zehn Jahren stehen, gibt es im Netz Software, die exakt Auskunft gibt.Die Klimatologen würden nur allzu gerne nach dieser Arbeitsweise verfahren. Ein Problem ist aber, dass sie aufgrund des chaotischen Charakters des Wetters nicht die geringste Hoffnung hegen können, jemals Modellvorhersagen mit der Wirklichkeit in Einklang bringen zu können. Sie können das Modell auch nicht mit kurzfristigen Ereignissen zur Deckung bringen, sagen wir für 6 Monate, weil das Wetter in 6 Monaten völlig unvorhersagbar ist, es sei denn in sehr allgemeinen Worten.Das bedeutet Schlimmes für die ModellierbarkeitNun möchte ich noch etwas in dieses Durcheinander einwerfen. Das stammt aus meiner anderen Spezialisierung, der Welt des Computer-Modellierens von selbst-lernenden Systemen.Das ist das Gebiet der „Künstlichen Intelligenz“, wo Wissenschaftler meist versuchen, Computer- Programme zu erstellen, die sich intelligent verhalten und lernfähig sind. Wie in jedem Forschungsfeld ruft das Konzept Mengen von allgemeiner Theorie hervor, und eine davon hat mit der Natur der Stück-um-Stück zunehmenden Erfahrung (Inkrementelle Erfahrung) zu tun.Inkrementelle Erfahrung findet statt, wenn ein lernender Prozess versucht, etwas Einfaches zu modellieren, indem er vom Einfachen ausgeht und Komplexität zufügt, dabei die Güte des Modells beim Fortgang testet.Beispiele sind Neuronale Netzwerke, wo die Stärke der Verbindungen zwischen simulierten Hirnzellen mit dem Prozess des Lernens angepasst wird. Oder genetische Programme, wo Bits von Computerprogrammen modifiziert werden und bearbeitet werden, um das Modell immer mehr anzupassen.Am Beispiel der Theorien über das Sonnensystem können Sie sehen, dass die wissenschaftliche Methode selbst eine Form des inkrementellen Lernens ist.Es gibt einen universellen Graphen über das Inkrementelle Lernen. Er zeigt die Leistung eines beliebigen inkrementellen Lern-Algorithmus bei zwei Datensätzen, ganz gleich bei welchem.Voraussetzung ist, dass die beiden Datensätze aus der gleichen Quelle stammen müssen, aber sie sind zufällig in zwei Datensätze aufgespaltet, in den Trainingsdatensatz für die Trainierung des Modells und in einen Testdatensatz, der immer wieder für das Überprüfen gebraucht wird. Normalerweise ist der Trainingsdatensatz größer als der Testdatensatz, aber wenn es viele Daten gibt, macht das nichts aus. Mit der Zunahme des Wissens im Trainingsmodell benutzt das lernende System die Trainingsdaten, um sich selbst anzupassen, nicht die Testdaten, die zum Testen des Systems benutzt und sofort wieder vergessen werden.

Wie zu sehen ist, wird die Leistung mit dem Trainingsdatensatz immer besser, je mehr Komplexität dem Modell zugefügt wird, auch die Leistung des Testdatensatzes wird besser, beginnt aber dann, schlechter zu werden.
Um es deutlich zu sagen: der Testsatz ist das Einzige, was zählt. Wenn wir das Modell für Vorhersagen benutzen wollen, werden wir es mit neuen Daten füttern, wie mit unserem Testdatensatz. Die  Leistung des Trainingsmodells ist irrelevant.
Über dieses Beispiel wird diskutiert, seit Wilhelm von Ockham den Satz geschrieben hat: “Entia non sunt multiplicanda praeter necessitatem“, besser bekannt als „Ockhams Rasiermesser“ und am besten so übersetzt: “Die Entitäten dürfen nicht ohne Not vermehrt werden”. Mit Entitäten meinte er unnötige Verzierungen und Schnörkel einer Theorie. Die logische Folge daraus ist, dass die am einfachsten die Fakten erklärende Theorie wahrscheinlich stimmt. Es gibt Beweise für die Allgemeingültigkeit dieses Satzes aus dem Gebiet der Bayesianischen Statistik und der Informationstheorie.
Das heißt also, dass unsere kühnen Wettermodellierer von beiden Seiten her in Schwierigkeiten stecken: wenn die Modelle für die Wettererklärung nicht ausreichend komplex sind, sind ihre Modelle nutzlos, wenn sie allzu komplex sind, auch.

Wer möchte da noch Wettermodellierer sein?

Unter der Voraussetzung, dass sie ihre Modelle nicht anhand der Wirklichkeit kalibrieren können, wie entwickeln und prüfen die Wettermodellierer ihre Modelle?Wie wir wissen, verhalten sich auch Wettermodelle chaotisch. Sie zeigen die gleiche Empfindlichkeit auf die Eingangsbedingungen. Das Mittel der Wahl für die Evaluierung (von Lorenz entwickelt) ist, Tausende von Läufen durchzuführen mit jeweils geringfügig anderen Eingangsbedingungen. Die Datensätze heißen „Ensembles”.Jedes Beispiel beschreibt einem möglichen Wetter-Pfad, und durch die Zusammenstellung des Satzes wird eine Verteilung möglicher Zielentwicklungen erzeugt. Für Wettervorhersagen zeigen sie mit dem Spitzenwert ihre Vorhersage an. Interessanterweise gibt es bei dieser Art von Modell-Auswertung wahrscheinlich mehr als nur eine Antwort, also mehr als einen Spitzenwert, aber über die anderen, auch möglichen Entwicklungen, wird nicht gesprochen. In der Statistik heißt dieses Verfahren „Monte Carlo Methode“.Beim Klimawandel wird das Modell so modifiziert, dass mehr CO2 simuliert wird, mehr Sonneneinstrahlung oder andere Parameter von Interesse. Und dann wird ein neues Ensemble gerechnet. Die Ergebnisse stellen eine Serie von Verteilungen über der Zeit dar, keine Einzelwerte, obwohl die von den Modellierern gegebenen Informationen die alternativen Lösungen nicht angeben, nur den Spitzenwert.Die Modelle werden nach der Beobachtung der Erde geschrieben. Landmassen, Luftströmungen, Baumbedeckung, Eisdecken, usw. werden modelliert. Sie sind eine große intellektuelle Errungenschaft, stecken aber noch immer voller Annahmen. Und wie man erwarten kann, sind die Modellierer stets bemüht, das Modell zu verfeinern und neue Lieblingsfunktionen zu implementieren. In der Praxis gibt es aber nur ein wirkliches Modell, weil alle Veränderungen rasch in alle eingebaut werden.Schlüsselfragen der Debatte sind die Interaktionen zwischen den Funktionen. So beruht die Hypothese vom Durchgehen der Temperaturen nach oben infolge von erhöhtem CO2 darauf, dass die Permafrostböden in Sibirien durch erhöhte Temperaturen auftauen würden und dadurch noch mehr CO2 freigesetzt würde. Der daraus resultierende Feedback würde uns alle braten. Das ist eine Annahme. Die Permafrostböden mögen auftauen oder auch nicht, die Auftaugeschwindigkeit und die CO2-Freisetzung sind keine harten wissenschaftlichen Fakten, sondern Schätzungen. So gibt es Tausende von ähnlichen „besten Abschätzungen“ in den Modellen.Wie wir bei den inkrementell lernenden Systemen gesehen haben, ist allzu viel Komplexität genau so fatal, wie zu wenig. Niemand weiß, wo sich die derzeitigen Modelle auf der Graphik oben befinden, weil die Modelle nicht direkt getestet werden.Jedoch macht die chaotische Natur des Wetters alle diese Argumente über die Parameter zunichte. Wir wissen natürlich, dass Chaos nicht die ganze Wahrheit ist. Es ist in den ferner vom Äquator gelegenen Regionen im Sommer im Durchschnitt wärmer als im Winter geworden. Monsune und Eisregen kommen regelmäßig jedes Jahr vor und daher ist die Sichtweise verführerisch, dass das Chaos wie das Rauschen in anderen Systemen aussieht.

Das von den Klimawandel-Anhängern benutzte Argument geht so: Chaos können wir wie Rauschen behandeln, daher kann das Chaos „herausgemittelt“ werden.

Um ein wenig auszuholen: Diese Idee des “Ausmittelns” von Fehlern/Rauschen hat eine lange Geschichte. Nehmen wir das Beispiel von der Höhenmessung des Mount Everest vor der Erfindung von GPS und Radar-Satelliten. Die Methode der Höhenermittlung war, auf Meereshöhe mit einem Theodoliten zu beginnen und die lokalen Landmarken auszumessen, indem man deren Abstand und Winkel über dem Horizont maß, um die Höhe zu schätzen. Dann wurde von den vermessenen Punkten aus das Gleiche mit weiteren Landmarken gemacht. So bewegte man sich langsam im Binnenland vor. Zum Zeitpunkt der Ankunft der Landvermesser am Fuße des Himalaja beruhten ihre Messungen auf Tausenden vorhergehenden Messungen. Alle mit Messfehlern. Im Endeffekt lag die Schätzung der Vermesser von der Höhe des Everest nur um einige zig Meter daneben.Das kam, weil die Messfehler selbst eine Tendenz zum Ausmitteln hatten. Wenn ein systemischer Fehler drin gewesen wäre, etwa von der Art, dass jeder Theodolit um 5 Grad zu hoch gemessen hätte, dann wären die Fehler enorm groß geworden. Der Punkt dabei ist, dass die Fehler dann keinen Bezug zum vermessenen Objekt gehabt hätten. Es gibt viele Beispiele dafür in der Elektronik, in der Radio-Astronomie und auf anderen Gebieten.Sie verstehen nun, dass die Klimamodellierer hoffen, dass das auch für das Chaos gilt. Sie behaupten ja tatsächlich, dass es so wäre. Bedenken Sie aber, dass die Theodolitenfehler nichts mit der tatsächlichen Höhe des Everest zu tun haben, wie auch das Rauschen in Radioteleskopverstärkern nichts mit den Signalen von weit entfernten Sternen zu tun hat. Das Chaos dagegen ist Bestandteil des Wetters. Daher gibt es keinerlei Grund, warum sich das „ausmitteln“ würde. Es ist nicht Bestandteil der Messung, es ist Bestandteil des gemessenen Systems selbst.Kann Chaos überhaupt „ausgemittelt“ werden? Falls ja, dann müssten wir bei Langzeitmessungen des Wetters kein Chaos erkennen. Als eine italienische Forschergruppe um meine Chaos-Analyse-Software bat, um eine Zeitreihe von 500 Jahren gemittelter süditalienischer Wintertemperaturen auszuwerten, ergab sich die Gelegenheit zur Überprüfung. Das folgende Bild ist die Ausgabe der Zeitreihe mittels meines Chaos-Analyse-Programms „ChaosKit“.

Ergebnis: Ein Haufen Chaos. Der Lyapunov-Exponent wurde mit 2.28 Bits pro Jahr gemessen.
Auf gut Deutsch: Die Treffsicherheit der Temperaturvorhersage vermindert sich um den Faktor 4 für jedes weitere Jahr, für welches eine Vorhersage gemacht werden soll, oder anders herum: die Fehler vervierfachen sich.

Was heißt das? Chaos mittelt sich nicht aus. Das Wetter bleibt auch über Hunderte von Jahren chaotisch.

Wenn wir einen laufenden Durchschnitt über die Daten bilden würden, wie es die Wettermodellierer tun, um die unerwünschten Spitzen zu verbergen, können wir eine leichten Buckel rechts sehen, und viele Buckel links. Wäre es gerechtfertigt, dass der Buckel rechts ein Beweis für den Klimawandel ist? Wirklich nicht! Man könnte nicht entscheiden, ob der Buckel rechts das Ergebnis des Chaos und der angezeigten Verschiebungen wäre, oder ob da ein grundlegender Wandel wäre, wie zunehmendes CO2.
Fassen wir zusammen: die Klimaforscher haben Modelle konstruiert auf der Grundlage ihres Verständnisses des Klimas, derzeitigen Theorien und einer Reihe von Annahmen. Sie können ihre Modelle wegen der chaotischen Natur des Wetters nicht über kurze Zeiträume testen, das geben sie zu.
Sie hofften aber, dass sie kalibrieren könnten, ihre Modelle bestätigen oder reparieren, indem sie Langzeitdaten auswerteten. Aber wir wissen jetzt, dass auch dort das Chaos herrscht. Sie wissen nicht, und sie werden niemals wissen, ob ihre Modelle zu einfach, zu komplex oder richtig sind, weil – selbst wenn sie perfekt wären – angesichts der chaotischen Natur des Wetters keine Hoffnung besteht, die Modelle an die wirkliche Welt anpassen zu können. Die kleinsten Fehler bei den Anfangsbedingungen würden völlig unterschiedliche Ergebnisse hervorbringen.
Alles, was sie ehrlich sagen können, ist: “Wir haben Modelle geschaffen, wir haben unser Bestes getan, um mit der wirklichen Welt im Einklang zu sein, aber wir können keinen Beweis für die Richtigkeit liefern. Wir nehmen zur Kenntnis, dass kleine Fehler in unseren Modellen dramatisch andere Vorhersagen liefern können, und wir wissen nicht, ob wir Fehler in unseren Modellen haben. Die aus unseren Modellen herrührenden veröffentlichten Abhängigkeiten scheinen haltbar zu sein.“

Meiner Ansicht nach dürfen regierungsamtliche Entscheider nicht auf der Grundlage dieser Modelle handeln. Es ist wahrscheinlich, dass die Modelle so viel Ähnlichkeit mit der wirklichen Welt haben wie Computerspiele.
Zu guter Letzt, es gibt eine andere Denkrichtung in der Wettervorhersage. Dort herrscht die Meinung, dass das Langzeitwetter großenteils von Veränderungen der Sonnenstrahlung bestimmt wird. Nichts in diesem Beitrag bestätigt oder verwirft diese Hypothese, weil Langzeit-Aufzeichnungen der Sonnenflecken enthüllen, dass die Sonnenaktivität ebenfalls chaotisch ist.
Dr. Andy Edmonds
Übesetzt von Helmut Jäger EIKE
Anmerkung von Antony Watts: Nur damit wir uns gleich verstehen: Chaos beim Wetter ist NICHT dasselbe wie der oben beschrieben Klimazusammenbruch – Anthony
Den Originalbeitrag finden Sie hier
Kurzbiografie
Dr. Andrew Edmonds ist Wissenschaftler und schreibt Computer Software. Er hat viele frühe Computer Software Pakete auf dem Gebiet der „Künstlichen Intelligenz“ entworfen und er war möglicherweise der Autor des ersten kommerziellen „Data Mining“ Systems. Er war Vorstandssprecher einer amerikanischen Aktiengesellschaft und bei mehreren erfolgreichen Firmen-Neugründungen tätig. Seine Doktorarbeit behandelte die Vorhersagen von Zeitreihen in chaotischen Reihen. Daraus entstand sein Produkt ChaosKit, des einzigen abgeschlossenen kommerziellen Produkts für die Analyse von Chaos in Zeitreihen. Er hat Papiere über Neuronale Netze veröffentlicht und über genetisches Programmieren von „fuzzy logic“ Systemen, „künstlicher Intelligenz“ für den Handel mit Finanzprodukten. Er war beitragender Autor von Papieren auf den Gebieten der Biotechnologie, des Marketings und des Klimas.
Seine Webseite: http://scientio.blogspot.com/2011/06/chaos-theoretic-argument-that.html