Teil I Globaltemperatur grob fehlerhaft! Neue begutachtete Studien enthüllen: Fehler deutlich größer als gesamte Änderung im letzten Jahrhundert.

Jetzt hat Pat Frank ein unerschrockener und erfahrener Experimental-Wissenschaftler der alten Schule, die Rechenmethoden für die Globaltemperaturberechnung des IPCC auf messtechnische, mathematische und logische Richtigkeit überprüft. Sein Ergebnis, das in zwei begutachteten Aufsätzen veröffentlicht wurde: die mittlere Temperatur der Erde kann nicht genauer als mit ± 1 °C bestimmt werden.  Damit ist jede Änderung, die daraus abgeleitet wird, statistisch von Null nicht zu unterscheiden. Jede Zuordnung von Ursachen für nicht von Null unterscheidbare Änderungen ist daher Spekulation.

Seit vielen Jahrzehnten wird uns von den Medien mitgeteilt, dass eine globale Mitteltemperatur existiere und diese sich in nie dagewesene Höhen aufgeschwungen hätte. Die Ursache dafür, so wird ständig wiederholt, läge beim Menschen.

Abbildung 1 Die blaue mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom britischen Met-Office [0]von 1850 bis Ende 2010 im Internet zu Verfügung gestellt wird. Ihr überlagert ist die nach Brohan et al ermittelte Unsicherheit von ± 0,1 K. Die Referenzzeit ist hier 1961-1990

Belegt wird diese Behauptung – inzwischen umfassend mit der Wirkung eines vermuteten anthropogenen Treibhauseffektes begründet- und zum schlichten "Klimawandel[1]" verkürzt, mittels diverser wissenschaftlicher Studien. Eindrucksvoll zusammengefasst in den Abschätzungs-Berichten der IPCC Reports zum Klimawandel. Widerspruch dagegen wird immer häufiger als Häresie, ja als Gotteslästerung angesehen. Es herrsche doch Konsens unter 97 % der Wissenschaftler, so wird jedenfalls behauptet (Details dazu hier).

Doch jedem, der auf der Oberschule Physikunterricht genossen hat und ihn nicht vorzeitig abwählte, müssen die veröffentlichen globalen Temperaturkurven irgendwie merkwürdig vorkommen. Man wird sich erinnern, wie umständlich es schon in der Schule war, auch nur in zwei dicht benachbarten Räumen, deren Temperatur auf 1/2 ° C genau zu bestimmen. Allenfalls gelang eine Momentaufnahme und nur an diesem Ort. Wie kann es dann gelingen, eine Temperatur der ganzen Welt auf ± 1/10 ° C und dazu noch über 150 Jahre, genau zu bestimmen? 

Die Antwort ist: Das kann man nur, wenn man diverse Fehler, die unvermeidbar auftreten, von denen man viele zwar vermuten kann, deren genauen Wert und Verlauf man jedoch nur grob schätzen könnte, glatt unter den Tisch fallen lässt. Das ist bei der Berechnung der globalen Mitteltemperatur und ihres Trendverlaufes nachweislich geschehen. Dies ist gelegentlich auf böse Absicht zurückzuführen (wie die ClimateGate Emails zu beweisen scheinen), häufiger auf blinden Ehrgeiz, unbedingt das gewünschte Ergebnis zu erzielen, aber am allerhäufigsten wohl auf ein mangelhaftes Verständnis der Grundlagen der Fehlertheorie, des altehrwürdigen und gut bekannten, aber sehr speziellen Zweiges der mathematischen Statistik.  Die besagen nämlich, dass sich auch mit noch so ausgefeilten statistischen Methoden aus höchst ungenauen und unvollständigen Daten keine präzisen Messergebnisse herleiten lassen. Doch genau das wird mit erheblichem Aufwand versucht. Aber anders lässt sich dieses merkwürdige, selten offiziell angezweifeltes und falsches Ergebnis der offiziellen Klimainstitute nicht erklären.

Pat Frank, ein promovierter Physiko-Chemiker [2], der sich in seiner langen beruflichen und wissenschaftlichen Laufbahn viel mit Spektralmessungen und deren Auswertung beschäftigte, hat jetzt -im bekannt aufmüpfigen Wissenschaftsjournal "Energy & Environment"- nacheinander zwei begutachtete Fachbeiträge[3] [4] veröffentlicht, die Aufsehen erregen müssen. Zugegeben, in der Fachöffentlichkeit haben die Zeitschriften "Nature" und "Science" trotz diverser grober Fehler, gerade in Sachen Klimaforschung, noch einen höheren Stellenwert als "Energy & Environment". Aber saubere wissenschaftliche Redaktions- und Begutachtungsarbeit wird auch dieser Zeitschrift, selbst von Gegnern, bescheinigt.

Die erste Arbeit von Pat Frank erschien im Winter 2010. Ihr Titel: „Uncertainty in the global average surface air temperature index: representative lower limit“

In der Zusammenfassung zu diesem Aufsatz schreibt Frank:

Zitat: Die Messfühler (Sensor)-Messunsicherheit wurde nie umfassend in früheren Aufsätzen zur mittleren globalen bodennahen Lufttemperatur berücksichtigt. Der geschätzte durchschnittliche ± 0,2 °C Stations-Fehler wurde fälschlicherweise als zufällig beurteilt, während der systematische Fehler, bestimmt durch unkontrollierte Variablen, immer vernachlässigt wurde. Der systematische Fehler bei den Messungen von drei ideal gelegenen und (ideal) gewarteten Temperatursensoren wurde hier berechnet. In Kombination mit dem mit ± 0,2 ° C allgemein berichteten Durchschnitts Stations-Fehler, wurde eine repräsentative untere Grenz-Unsicherheit von ± 0,46 °C für alle globalen jährlichen bodennahen Lufttemperatur Anomalien gefunden. Diese ± 0,46 ° C zeigt, dass der Trend der globalen bodennahen Lufttemperatur Anomalie von 1880 bis 2000 statistisch nicht von 0 ° C zu unterscheiden ist, und stellt somit eine untere Grenze der Kalibrierunsicherheit für Klimamodelle und für jeden mögliche physikalisch vertretbare Proxy-Rekonstruktion der Paläo-Temperatur dar. Die Geschwindigkeit und das Ausmaß der Erwärmung des 20. Jahrhunderts sind somit unbekannt, und Vermutungen von einer beispiellosen Entwicklung der globalen Lufttemperatur im 20. Jahrhundert sind somit nicht nachhaltig (begründbar). Zitatende

Das ist eine klare Ansage. Sie stellt, wenn sie sich denn als richtig erweisen sollte, und daran besteht kein vernünftiger Zweifel, der offiziellen Klimaforschung ein denkbar schlechtes Zeugnis aus. Doch um die Brisanz dieser Aussage wirklich nachvollziehen zu können, sollte man sich ein wenig mit der Fehlertheorie beschäftigen. Danach unterscheidet man drei Arten von Fehlern: Zufällige Fehler, systematische Fehler und grobe Fehler.

Zufällige Fehler

Zufällige Fehler entstehen immer bei jeder Messung und sind unvermeidbar. Beispielsweise zeigt jedes noch so genaue Thermometer unter der Bedingung, dass bei jeder Messung immer dieselbe Temperatur gemessen wird, zum Beispiel in kochendem Wasser, immer einen leicht anderen Wert als genau 100 °C an. Schreibt man die ermittelten Werte auf und misst genügend oft, dann streuen die Messungen um den „wahren“ Messwert häufig gleichverteilt herum. Bei Mittelung gleichen sie sich bei genügend großer Anzahl von Messungen aus. Wobei sie dadurch gekennzeichnet sind, dass sie völlig zufällig auftreten und deshalb durch Mittelung minimiert werden können. Ihr Mittelwert tendiert also im Idealfall gegen Null. Diese Fehler nennt Frank in seinem Papier „Rausch-Fehler“. (Noise Errors)

Systematische Fehler.

Jedes Messinstrument, aber auch jeder Messprozess, erzeugt bei der Messung zudem systematische Fehler. Diese haben unter sonst gleichen Bedingungen und immer auf denselben Fehler bezogen immer dasselbe Vorzeichen und immer denselben Wert. Sind sie bekannt, dann können sie mittels einer Korrekturrechnung ausgeglichen werden. Ein gutes Beispiel für einen systematischen Fehler ist eine Uhr (ein Zeitmesser), die immer 5 Minuten vorgeht. Diese 5 Minuten kann man von der angezeigten Zeit einfach abziehen, um auf die genaue Zeit zu kommen. Sind sie aber nicht bekannt, dann gibt es keinen Weg sie zu vermeiden. Sie müssen als Fehlergröße oder Unsicherheit der Messung angegeben werden.

Grobe Fehler

Das sind Fehler, die einfach grob falsche Ergebnisse liefern. Z.B. wenn eine Messstation deshalb keine Ergebnisse anzeigt, weil sie nicht abgelesen wurde. Oder wenn bei der Übertragung ein grober Zahlendreher passierte, oder wenn eine Temperaturmessung in einem Eisblock statt am Kochherd gemacht wurden. Grobe Fehler lassen sich nicht ausgleichen, die Messergebnisse müssen verworfen werden

Pat Franks 1. Aufsatz konzentriert sich nun auf die zufälligen und sensoreigenen systematischen Fehler.

Er zeigt mit einiger Mathematik, dass sich bei den meteorologischen Messungen, die zufälligen Fehler (oder Messunsicherheiten) komplizierter verhalten, als es die einfache Fehlertheorie, die bisher auf sie angewendet wurde, bescheibt.

In der Klimatologie wird der Aufsatz von Brohan et. al 2006[5]  als maßgeblich für die Bestimmung der Unsicherheitsbandbreite des mittleren globalen Temperaturtrends angesehen. Sie geben in ihrer Arbeit (und beziehen sich dabei auf Folland et. al 2001) diesen (dort „station error“ genannten) gesamten mittleren Stations-Fehler (genauer;  die Standardabweichung 1σ) mit ±0,2 °C an. D.h. sie unterstellen (von Folland 2001 übernommen) , dass 68,3 % (Vertrauensbereich [6]) der Messwerte jeder Station im Bereich von ± 0,2 °C um den wahren Wert gleichverteilt herum liegt.  Nun fallen bei der täglichen Bestimmung von z.B. Max. und Min. Temperatur täglich zwei Messungen an. Im Monat sind das 60.

Unterstellt man nun, dass dieser mittlere Stations-Fehler (Messfehler oder Messunsicherheit) von ± 0,2 °  C für jeden Messwert, wie im oben genannten Standardaufsatz zur Bestimmung des gesamten zufälligen Fehlers der globalen Mitteltemperatur geschehen, auftritt, dann lautet das Ergebnis für den gesamten Fehler des Monatsmittels – jedoch nur bei immer derselben Temperatur unter sonst gleichen Bedingungen gemessen- 

°C

Diese einfache Formel ist heute schon geschichtsträchtig und damit legendär, denn sie erlaubt, aus ungenauen Messwerten, sehr genaue Trends herzuleiten.  Sie begründete damit den Glauben einer ganzen Generation von Klimaforschern an präzise globale Temperaturtrends, weil sie die schöne Eigenschaft hat, aus ungenauen, nicht mehr änderbaren historischen Messwerten, sehr genaue Rechenwerte zu erzeugen. Genau das, was die Klimatologen für die Berechnung einer hinreichend genauen globalen Mitteltemperatur brauchten.

Sie hat aber leider einen großen Nachteil! Sie ist für klimatologische Temperaturmessungen so nicht einsetzbar, weil sie für Messarten angewendet wird, für die sie nicht entwickelt wurde. Es werden damit Messfehler nicht berücksichtigt, die zwar unvermeidbar vorkommen, aber mit dieser Formel unterdrückt werden.

Pat Franks Verdienst ist es nun, diese Formel an die reale Welt angepasst zu haben. Er hat dazu ihre Bedeutung zur Klärung ihrer Schwächen einfach wörtlich genommen, wie es auch Brohan et al selber erklären. Wenn die Fehler jeder einzelnen Messung so sind, wie dort angenommen, dann müsste jeden Tag 2 x dieselbe Temperatur τi [7]

gemessen werden. Mit  

Weil das offensichtlich nicht so ist, die Temperaturen ja definitiv verschieden sind, muss  zusätzlich  dieser Temperatur τi eine – „Wetterrauschen“ wi genannte Komponente- addiert, welche die maximale Tagestemperatur von der konstanten Temperatur, aber auch der minimalen Tagestemperatur, und auch von den Messdaten der Folgetage, unterscheidet. Aber, und das ist die Bedingung, der Mittelwert all dieser Wetterrauschwerte wi, muss – weil  zufällig á la Brohan et. al – gegen Null tendieren. Des Weiteren unterliegt jede Messung dem eigenen Signalrauschen des Sensors. Dieser Signal-Rauschfehler muss ebenfalls zur konstanten Temperatur τi  addiert werden. Nur dann lässt sich der Fehler nach der bekannten Formel  gegen Null ausmitteln. N ist dabei die Zahl der Messungen.

Doch diese Annahme ist offensichtlich physikalischer Unsinn. Die Max-Temperatur eines Tages ist stark von den Strahlungs- und Wetterbedingungen tagsüber abhängig, die Min-Temperatur von ganz anderen Strahlungs- und Wetterbedingungen des nachts. Keine davon ist konstant. Doch lässt diese Betrachtungsweise zu, dass mittels der dann folgenden Betrachtungen, ein systematischer Fehler abgeleitet werden kann, der zwangsläufig bei realen verschiedenen Messwerten der Max- und Min- Temperatur auftritt und nicht unterschritten werden kann.

Frank beginnt damit die drei theoretisch möglichen Fälle zu unterscheiden, bei denen man erfolgreich Rauschverminderungstechniken, oder hier Verminderungstechniken zufälliger Fehler[8], ansetzen kann und wann nicht. Er beschreibt dazu 3 Klassen von Zuständen, die anfangs ideal einfach, später komplizierter, die Möglichkeiten darstellen zufällige und systematische Instrumenten-Fehler zu klassifizieren und sie mathematisch zu definieren. Die Klasse 3 ist bei ihm die, welche der Wirklichkeit am nächsten kommt. Hier wird davon ausgegangen, dass die jeweiligen Messwerte immer verschieden sind und auch ihre Rauschanteile verschieden sind. Zudem sind alle voneinander statistisch unabhängig. Das ist bei den Wetter-Temperaturmessungen immer der Fall.

Auf die oben erwähnte -zu einfache- Formel bezogen, bedeutet das, dass sie wegen der sich ständig ändernden Messwerte, die täglich, jeweils nur 1 x (ein Max. Wert und ein Min. Wert) um einen zufälligen nicht normalverteilten Fehler ±σ  und zusätzlich einen systematischen Fehleranteil s ergänzt werden muss. Hundertmal denselben Wert zu messen und dann daraus evtl. normalverteilte zufällige Fehler zu bestimmen, ist eben nicht dasselbe, als 100 verschiedene einzelne Messwerte mit verschiedenen zufälligen Fehlern zusammen zu fassen und dann ihren Gesamt-Fehler zu bestimmen.

Hatte man vorher 100 Messwerte um den einen „wahren“ Wert herum, so hat man nun 100 Messwerte, die von 100 „wahren“, aber verschiedenen, Werten leichter oder stärker abweichen können. 

Unter der Überschrift: Zweck der Studie schreibt er

Zitat

Diese Studie entwickelt eine untere Grenze für die Unsicherheit, die in die Temperatur-Aufzeichnungen -bei den geschätzten zufälligen und systematischen Fehlern- eingeführt werden muss und die Feld-Auflösung der terrestrischen Sensoren beeinflusst.

Eine grundlegende Signalmittelung wird eingeführt und dann verwendet, um die Bedeutung der geschätzten ± 0,2 C durchschnittlichen Unsicherheit aufzuklären, die bei terrestrischen Temperaturmessungen seitens Folland, et al. [12] geschätzt wurde. Eine Schätzung der Rausch-Unsicherheit für jede bestimmte jährliche Temperatur-Anomalie wird dann entwickelt. Im Anschluss daran werden die unteren Grenzen der systematischen Fehler bei drei Temperatursensoren anhand zuvor berichteter idealer Feldstudien [13] ermittelt.

Schließlich wird die durchschnittliche (Mess)-Rausch-Unsicherheit und die untere Grenze des systematischen (Instrumenten-) Fehlers in einem Maximum-Minimum Temperatur Mess-System (MMTS)-Sensor in eine gesamt untere Grenze der Unsicherheit für eine jährliche Anomalie, bezogen auf ein 30-Jahres-Mittel kombiniert. Die Wirkung dieser unteren Grenz-Unsicherheit auf den globalen Durchschnitt der bodennahen Lufttemperatur Anomalie Zeitreihe wird beschrieben. Die Studie endet mit einer Zusammenfassung und einer kurzen Diskussion über den Nutzen des instrumentellen bodennahen Lufttemperatur Aufzeichnung als einme Validierungs- Ziel in Klima-Studien.

Zitat Ende (Klammerbegriffe vom Autor ergänzt)

Mittels diesen neuen Ansatzes vermag Pat Frank die untere Grenze bei Max-Min Temperaturmessungen unter idealen Bedingungen zu definieren. Dazu setzt er die sehr gründliche  Bestimmung von Temperatur – Sensorfehlern von Lin and Hubbard [9] ein und benutzt diese – fast idealen Sensoren- als untere erreichbare Grenze.

 

Abbildung 2 Die rote mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom amerikanischen Goddard Institute of Space Sciences (http://data.giss.nasa.gov/gistemp/graphs/) GISS von 1880 bis Ende 2008 im Internet zu Verfügung gestellt wird. Ihr überlagert ist die minmale Unsicherheit nach Frank in Höhe von ± 0,46 K. Die Referenzzeit ist hier 1951-1980

Im  Abschnitt: 3.2. An empirical approach to temperature uncertainty“ beschreibt er die Vorgehensweise und leitet darin die beiden Komponenten der nichtvermeidbaren Restfehler ab. Sie errechnen sich bei Verwendung modernster Technologien für die Temperatursensoren, zudem bei bester Wartung und mit sauberster Kalibrierung mit

Da im wirklichen Leben, wie besonders die Arbeit von Antony Watts mit seinem Surface Station Project gezeigt, die Verhältnisse bei den terrestrischen Messstationen wesentlich schlechter sind und waren, kann Frank mit Fug und Recht behaupten, dass dies die unterste Grenze aller Fehlerberechnungen bei der Anomalienbildung der globalen Mitteltemperatur sein muss. Ein Fehler von ± 0,46 °C kann deshalb in keinem Fall unterschritten werden. Bei einer Veränderung der globalen Temperaturanomalie von behaupteten 0,7 bis 0,8 ° C im vorigen Jahrhundert, verschwindet diese deshalb im Rauschen bzw. im breiten Unsicherheitsband.

Wird fortgesetzt.

Michael Limburg EIKE


[1] lt UNFCC der rechtlich bindenden Rahmenkonvention der UN von 1992, die Grundlage der IPCC Arbeit und den rechtlichen Rahmen für alle verbindlich setzend ist das Wort „Klimawandel“ (Climate Change) immer als mensch-gemacht zu verstehen und zu verwenden. Natürlicher Klimawandel muss hingegen als „Klimavariation“ (Climate variation) bezeichnet werden.

[2] Education is BS and MS in Chemistry from San Francisco State University. The Masters Degree research was in Physical Organic Chemistry. My Ph.D. is in Chemistry from Stanford University. After that I was a Bergman Postdoctoral Fellow at the Weizmann Institute of Science in Israel. The PhD and postdoctoral research involved Inorganic Biochemistry. This subject includes using physical and chemical methods to investigate the spectroscopy and chemistry of metalloproteins and metalloenzymes. These are proteins and enzymes that contain transition metals such as iron and copper.

For the last many years I have been a member of the research staff of the Stanford Synchrotron Radiation Lightsource, which is part of the SLAC National Accelerator Laboratory. There I use x-ray absorption spectroscopy to study the heavier elements found in biological systems; elements such as sulfur, vanadium, iron and copper. Some of my more recent research includes work with collaborators from France, Sweden, and Italy.

[3] Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

[4] Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surface                  409 Air Temperature Index“[4]

 

[5] Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F.B. and Jones, P.D., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850, J. Geophys. Res., 2006, 111 D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.

[6] Vertrauensbereich heißt, dass bei 1 σ 68,3 % der Messwerte innerhalb dieses Bandes liegen

[7] Diese Herleitung wird im 2. Paper von 2011 ausführlich behandelt

[8] Rauschverminderungstechniken bedeuten nichts anderes als Fehlerverminderungstechniken zufälliger Fehler

[9] Lin, X. and Hubbard, K.G., Sensor and Electronic Biases/Errors in Air Temperature Measurements in Common Weather Station Networks, J. Atmos. Ocean. Technol., 2004, 21 1025-1032.

Related Files




Peaköl war gestern: Amerika, nicht der Nahe Osten, wird Energie-Weltmeister

Seit Anfang dieses Jahrtausends jedoch hat die Energiewirtschaft dieses Problem weitgehend gelöst. Mit Hilfe horizontaler Bohrungen und anderen Innovationen ist die Schiefer Gas-Produktion in den Vereinigten Staaten innerhalb von weniger als zehn Jahren sprunghaft von nahezu Null auf 15 bis 20 Prozent der U.S. Erdgasversorgung in die Höhe geschnellt. Bis 2040 könnte mehr als die Hälfte darauf entfallen. Diese gewaltige Steigerung des Volumens hat die Diskussion in der US-Erdgas-Industrie auf den Kopf gestellt: Während sich Amerika einst darum sorgte, wie es die Erdgasversorgung der Länder sicherstellt, machen sie sich jetzt Gedanken darüber, wie sie potentielle Käufer für den Energiegasüberschuss finden können.

In der Zwischenzeit erlebt die Festland-Ölförderung in den Vereinigten Staaten, die nach Vorhersage von Analysten seit zwei Jahrzehnten zum unaufhaltsamen Niedergang verurteilt wurde, ein unerwartetes Comeback. Die Öl-Produktion aus Schiefergestein, ein technisch komplexer Vorgang, bei dem Kohlenwasserstoffe aus Sedimentschichten gepresst werden, ist erst am Anfang. Aber Analysten prognostizieren für die nächsten Jahre eine Produktion von 1,5 Millionen Barrel pro Tag für die nächsten Jahre allein aus den Lagerstätten unter den Great Plains und Texas – das entspricht 8% des derzeitigen US-Öl-Verbrauchs. Diese Entwicklung wirft die Frage auf, was die US-Energie-Industrie erreichen kann, wenn die Preise hoch bleiben und sich die Technologie weiter entwickelt. Ein weiteres Beispiel für die Stagnation des Rückganges sind die steigenden ? recovery rate?-Erholungsgeschwindigkeit? Förderraten aus alten Ölbohrungen. Zusätzlich dazu erwarten Analysten weitere 1 bis 2 Millionen Barrel pro Tag aus dem Golf von Mexiko, jetzt wo die Bohrungen wieder aufgenommen wurden. Ist die Spitze schon erreicht? Noch nicht so bald.

Das Bild in anderen Teilen Nord- und Südamerikas sieht ebenfalls vielversprechend aus. Von Brasilien wird angenommen, dass es die Kapazität zur Förderung von 2 Millionen Barrel pro Tag aus "vor Salz" Tiefseeressourcen hat, Rohöleinlagerungen mehr als eine Meile unter der Oberfläche des Atlantischen Ozeans, die bis vor ein paar Jahren technologisch noch nicht zugänglich waren. Ähnliche Zuwächse werden aus Kanadischen Öl-Sand Vorkommen erwartet, wo Erdöl aus teerigen Sedimenten im Tagebau gewonnen wird. Eine Produktion von möglicherweise 3 bis 7 Millionen Barrel pro Tag und mehr ist möglich, wenn die Vereinigten Staaten vor Ort Schweröl oder Kerogen kommerziell herstellen können. Bei diesem Prozess wird das Gestein aufgeheizt,  um das darin enthaltene Öl in flüssiger Form abpumpen zu können. Zweifellos stehen solchen Entwicklungen auch umweltpolitische Hindernisse entgegen. Hier jedoch beginnt auch die Industrie zu sehen, das Wege zu deren Überwindung gefunden werden müssen: mit Investitionen in ungiftige Bohrflüssigkeiten, gering-invasiven hydraulischen Aufbruch-Techniken, neuartigen Wasseraufbereitungsverfahren und anderen Technologien hofft man, die Umwelteinflüsse durch Bohrungen reduzieren zu können. Genauso wie die US-Öl-Industrie hat auch das ölhungrige China das Energiepotenzial Amerikas erkannt und investiert Milliarden in Kanada, die USA und Lateinamerika.

Zur gleichen Zeit werden der von Revolutionen geschüttelte Nahe Osten und Nordafrika den unbequemen Wahrheiten über das Vermächtnis ihrer eigenen fossilen Brennstoffproduktion ins Auge sehen müssen: Regierungswechsel in den betroffenen Regionen haben zu einem historisch anhaltenden und steilen Rückgang der Öl-Produktion geführt. Libyens Ölproduktion ist bisher nicht wieder auf die 3,5 Millionen Barrel pro Tag zurück gekommen, die gefördert wurden als Oberst Muammar al-Gaddafi 1969 König Idris stürzte; stattdessen hängt sie seit drei Jahrzehnten unter 2 Millionen Barrel pro Tag und ist jetzt nahezu Null. Iran produzierte zu Zeiten des Schahs täglich mehr als 6 Millionen Barrel, durch die Auswirkungen der Islamischen Revolution von 1979 sank jedoch die Öl-Produktion steil ab auf 2 Millionen Barrel pro Tag. Auch in den 1980er Jahren zeigte sich keine deutliche Erholung, die 4 Millionen Barrel-Marke wurde in den letzten Jahren nur mit Mühe erreicht. Ebenso wie im Iran hat auch die Förderung im Irak durch die vielen Unruhejahre gelitten und steht nun bei 2,7 Millionen Barrel pro Tag, einiges niedriger als jene 3,5 Millionen vor Saddam Husseins Machtergreifung.

Der Arabische Frühling hat die Dinge nur noch weiter verkompliziert: eine Störung der Ölexporte des Mittleren Ostens im Stil der 1979er Jahre steht ebenso wenig außer Frage wie Arbeitsniederlegungen oder Streiks der Ölarbeiter, all dies spiegelt den politischen Zeitgeist der Region wieder. Alles in allem stehen 21 Millionen Barrel arabische Ölproduktion pro Tag auf dem Spiel – etwa einem Viertel der weltweiten Nachfrage. Der Boom auf dem amerikanischen Kontinent sollte jetzt auch die restlichen Autokraten im Nahen Osten zum Nachdenken bringen – möglicherweise können sie nicht auf ständig steigende Ölpreise zählen um die unruhige Bevölkerung im Zaum zu halten.

Diese Kohlenwasserstoff-getriebene geopolitische Neuordnung zeigt sich bereits in Aktion. Die Ölmacht des Irans, Russlands und Venezuelas wankt angesichts der reichlichen amerikanischen natürlichen Erdgaslieferungen: ein Überschuss an Ressourcen in Amerika macht es anderen ausländischen Lieferanten schwer Kunden in Europa und Asien zu binden, wodurch es für die Akteure schwieriger wird sich fortan über plumpe Energie-"Diplomatie"  zu behaupten,

Die US-Energie-Industrie wäre auch in der Lage, Europa und China auch technische Unterstützung bieten um ihre eigenen unkonventionellen Ressourcen zu nutzen und damit die Abhängigkeit von Moskau und dem Persischen Golf zu beseitigen.
Also, schauen Sie genau hin: Amerika ist vielleicht als Energie-Lieferant der Welt zurück.

Autzor Amy Myers Jaffe ist Direktor des Instituts „Baker Institute Energy Forum at Rice University

Die Übersetzung besorgte dankenswerterweise C. Ohle für EIKE

Den Originalartikel finden Sie hier




Brandneu! – CERN-Experiment bestätigt: kosmische Strahlen beeinflussen die Wolkenbildung!

Sogar das IPCC hat dies im letzten Bericht (2007) bestätigt:

 „Das Feedback der Wolken ist die wichtigste Quelle von Unterschieden zwischen den einzelnen Modellen beim Gleichgewicht der Klimasensitivität, mit den tiefen Wolken als dem größten Beitrag.“

Aktualisierung: Im Artikel in Nature klingt es bei Kirkby noch etwas gedämpfter als bei der GWPF:

Frühere Ergebnisse scheinen darauf hinzuweisen, dass kosmische Strahlen Grund für eine Änderung sind. Die hochenergetischen Protonen scheinen die Bildung von Nanometer großen Partikeln in der gasförmigen Atmosphäre mit einem Faktor zehn zu begünstigen. Aber, fügt Kirkby hinzu, diese Partikel sind viel zu klein, um als Kondensationskerne für Wolken zu dienen. „Im Moment sagt das nichts über eine mögliche Auswirkung kosmischer Strahlen auf Wolken und Klima, aber es ist ein erster sehr wichtiger Schritt“, sagt er.

Aktualisierung: Bizarrerweise kommt das Magazin New Scientist mit dieser Schlagzeile daher: Cloud-making: Another human effect on the climate [etwa: Wolkenmachen: Eine weitere menschliche Auswirkung auf das Klima]

==========================================================

Experiment am CERN bestätigt den Einfluss kosmischer Strahlen auf Klimaänderung

von Nigel Calder

Lang erwartete Ergebnisse des CLOUD-Experiments am CERN in Genf erscheinen in der jüngsten Ausgabe der Zeitschrift Nature (25. August). Der Generaldirektor des CERN erregte im vorigen Monat Kontroversen mit seinen Worten, dass der Bericht des CLOUD-Teams politisch korrekt über die Klimaänderung sein sollte (siehe den Link zu meinem früheren Beitrag vom 17. Juli unten). Die Absicht war, auf keinen Fall die dänische Häresie abzusegnen – Henry Svensmarks Hypothese, dass der größte Teil der globalen Erwärmung des 20. Jahrhunderts durch die Reduzierung kosmischer Strahlen infolge einer aktiveren Sonne erklärt werden kann, was zu weniger Bewölkung und damit höheren Temperaturen an der Erdoberfläche führt.

Wohl oder übel sprechen die Ergebnisse für sich, und es ist kein Wunder, dass der Generaldirektor unruhig geworden ist.

Jasper Kirkby am CERN und seine 62 Mitautoren von 17 Instituten in Europa und den USA verkünden große Auswirkungen von Pionen aus einem Beschleuniger, der die kosmischen Strahlen simuliert und die Luft in einem Experimentierkasten ionisiert. Die Pionen sorgen in erheblichem Umfang dafür, dass sich Cluster von Schwefelsäure- und Wassermolekülen bilden – Aerosole von der Art, die zu Kondensationskernen für Wolken anwachsen können, um die sich dann Tröpfchen bilden. Mehr noch, es ergab sich auch eine sehr wichtige Klärung der beteiligten Chemie.

Ein Bruch der Etikette

Mein Interesse am CLOUD-Experiment reicht fast 14 Jahre zurück, und zwar bis zu einem Vortrag, den ich am CERN über Svensmarks Entdeckung über den Zusammenhang zwischen kosmischen Strahlen und Bewölkung gehalten habe.  Dies erregte Kirkbys Neugier, und wir beide, Svensmark und ich waren unter jenen, die ihm halfen, seinen Vorschlag für CLOUD auf den Weg zu bringen.

Es ist eine unfreundliche Ironie, dass der einzige Svensmark-Beitrag, der im Nature-Bericht bestätigt worden ist, die Studie von 1997 (Svensmark und Friis-Christensen) ist, auf die ich mich bei meinem CERN-Vortrag bezogen hatte. Die erfolgreichen Experimente in der Ionenchemie und der Bildung molekularer Cluster durch das dänische Team in Kopenhagen, Boulby und zuletzt in Aarhus, bei denen die ersten Resultate von CLOUD mit Hilfe eines Partikelstrahlers (an Stelle von Gammastrahlen und natürlichen kosmischen Strahlen) zur Ionisierung der Luft in einer Experimentierkammer gewonnen worden sind, werden nicht erwähnt – siehe hier.

Was werden Wissenschaftshistoriker einst zu diesem Bruch der wissenschaftlichen Etikette sagen? Dass Kirkby ärgerlich war, weil Svensmark, der wegen der langen Verspätung der Finanzierung und die Genehmigung des CLOUD-Experimentes die Geduld verloren hatte, die Sache nun selbst in die Hand nahm? Oder weil Svensmarks Offenheit hinsichtlich der kosmischen Strahlung Zweifel an der katastrophalen, anthropogen verursachten Klimaerwärmung säte, die die nationalen geldgebenden Institutionen ängstigte? Oder tat Kirkby lediglich sein bestes (trotz der Ergebnisse), um seinem Generaldirektor zu gehorchen, in dem er alles Dänische ignorierte?

Abgesehen von den persönlichen Rivalitäten: Die wichtige Frage lautet, was die neue CERN-Studie für die Svensmark-Hypothese bedeutet. Sucht man seinen Weg durch die zurückhaltende Prosa, findet man Folgendes:

Ionen induzierte Keimbildung (Wirkung der kosmischen Strahlen) wird sich selbst als eine ständige Produktionsstätte neuer Partikel (molekulare Cluster) manifestieren. Es ist schwierig, dies in atmosphärischen Beobachtungen wegen anderer Quellen von Variabilität zu isolieren, aber sie findet nichtsdestotrotz statt und kann ziemlich groß werden, wenn man es global über die Troposphäre mittelt“.

Das ist so durchsichtig im Sinne dessen, was die Dänen schon die ganze Zeit gesagt haben, dass ich überrascht war, dass ein Warmistenmagazin wie Nature das veröffentlichen konnte, wobei jedoch die Bände sprechende Graphik (s. unten) weggelassen wurde. Zusätzlich zu den vorher schon positiven experimentellen Ergebnissen der Dänen ist das Ergebnis des detaillierteren CERN-Experiment exzellent. Tausend Dank, Jasper!

Eine Graphik, bei der sie gerne sehen würden, dass Sie sie nicht bemerken. Versteckt am Ende des online verfügbaren unterstützenden Materials und beim Abdruck in Nature ausgelassen, zeigt sie eindeutig, wie kosmische Strahlen die Bildung molekularer Cluster („Teilchen“) anregen, die in der realen Atmosphäre wachsen können und zur Wolkenbildung führen. In einem experimentellen Durchlauf am CERN, der um 03.45 Uhr begann, erzeugte ultraviolettes Licht Schwefelsäuremoleküle in der Kammer, während ein starkes elektrisches Feld die Luft ionenfrei machte. Es tendierte auch dahin, molekulare Cluster, die sich in einer neutralen Umgebung (n) gebildet hatten, zu entfernen, aber einige von diesen akkumulierten sich mit einer niedrigen Rate. Sobald das elektrische Feld um 04.33 Uhr ausgeschaltet wurde, halfen natürliche kosmische Strahlen (gcr), die durch das Dach der Experimentierhalle in Genf einfielen, dass sich Cluster mit einer höheren Rate bildeten. Woher wissen wir, dass sie den Beitrag geleistet haben? Daher: als um 04.58 Uhr im Rahmen von CLOUD stärkere kosmische Strahlen mit einem Strahl geladener Pionen (ch) aus dem Beschleuniger simuliert wurden, verstärkte sich die Rate der Clusterbildung noch mehr. Die verschiedenen Farben stehen für Cluster unterschiedlicher Durchmesser (in Nanometern), wie sie durch zahlreiche Instrumente aufgezeichnet worden sind. Die Teilchen mit dem größten Durchmesser (schwarz) brauchten am längsten zum Wachsen, beim kleinsten Durchmesser (blau) ging es am schnellsten. Dies ist Abbildung S2c aus dem unterstützenden Online-Material für J. Kirkby et al., Nature 476, S429 bis 433, © Nature 2011.

 

Erläuterung der Chemie

Und in besseren Zeiten würden wir an der Kampagne einer wunderbaren Entdeckung mit CLOUD teilnehmen, dass Spuren von Ammoniak die Produktion von schwefligen Clustern tausendfach verstärken kann. Dies wird in der Überschrift auf den Punkt gebracht: „Die Rolle von Schwefelsäure, Ammoniak und galaktischer kosmischer Strahlen bei der Bildung atmosphärischer Aerosole“. Möglich wurde dies durch aufwändige chemische Analysen in großem Rahmen in Genf. Im Zentrum steht, dass Ammoniak hilft, molekulare Cluster zu stabilisieren.

Obwohl es das nicht offen sagt, impliziert das CLOUD-Team eine Herabsetzung für die Dänen mit diesen Ergebnissen, indem sie wiederholt erklärten, dass es ohne Ammoniak kaum Clusterbildungen in niedrigen Breiten geben würde. Aber obwohl die Experimentierer in Aarhus tatsächlich die einfachere Reaktionsgleichung (H2SO4 + H2O) übernehmen, bekamen sie durch abweichende Ergebnisse in nachfolgenden Experimenten den Verdacht, dass sich variierende Mengen von Spurenbestandteilen in ihren Luftzylindern befanden, um die Kammer zu füllen. Jetzt sieht es so aus, als ob der Schlüsselbestandteil Ammoniak gewesen sein könnte. Aber einige Mitglieder des CLOUD-Konsortiums bevorzugten auch (H2SO4 + H2O), und in früheren Durchläufen in Genf wurde kein Ammoniak mit Absicht benutzt. Also haben sie wenig Grund, sich darüber lustig zu machen.

In jedem Falle ist es lediglich von akademischem, aber nicht von praktischem Interesse, ob nun (H2SO4 + H2O) oder (H2SO4 + H2O + NH3) die zugrunde liegende Chemie ist. Es gibt immer Spuren von Ammoniak in der realen Luft, und dem CLOUD-Bericht zufolge braucht man nur ein Molekül in 30 Milliarden anderen. Falls das hilft, Svensmarks klimatischen Motor zu ölen, ist das gut zu wissen, aber es braucht keine Entschuldigungen und verändert die Implikationen auf das Klima kein bisschen.

Das Logo des Experiments, das Akronym „Cosmic Leaving Outdoor Droplets” implizierte immer ein starkes Interesse an Svensmarks Hypothese. Und die Rolle der Galaxie und der Sonne werden berücksichtigt.

Technisch ist CLOUD ein willkommener Fortschritt für die dänischen Experimente. Die Chemie ist nicht nur viel umfangreicher, sondern man kann auch molekulare Cluster bis zu dem geringen Durchmesser von 1,7 Nanometer aufspüren, verglichen mit den 4 nm in Dänemark. Und der Versuchsaufbau ermöglicht es den Wissenschaftlern, die Ionenchemie bei niedrigen Temperaturen zu untersuchen, korrespondierend mit zunehmender Höhe in der Atmosphäre. Die Clusterproduktion steigt rapide, wenn die Temperatur zurückgeht, bis „fast jedes negative Ion ein neues Partikel wachsen lässt“ (d. h. molekulares Cluster). Die niedrigste Temperatur, von der in der Studie berichtet wird, beträgt -25°C. Dies entspricht einer Höhe von 6000 Metern. Solange man nicht einen Regen von wolkenbildenden Aerosolen sichtbar machen will, ist das nicht sehr relevant für Svensmarks Interesse an den untersten 3000 Metern.

Wie die Warmisten ihren Damm gebildet haben

Gehe ich nun aus meiner Insider-Perspektive des CLOUD-Experiments hinaus und betrachte das Ganze im Umfeld einer politisierten Klimawissenschaft des frühen 21. Jahrhunderts, wird die stärkste Reaktion ein müder Seufzer der Erleichterung sein. Obwohl sie das niemals gesagt haben, wussten die Hohepriester der unbequemen Wahrheit – in Tempeln wie NASA-GISS, Penn State [University] und der University of East Anglia – immer, dass Svensmarks Hypothese der kosmischen Strahlen die Hauptbedrohung ihres skizzenhaften und ärmlich modellierten Gedankens der sich selbst verstärkenden Auswirkungen von Treibhausgasen war.

Mit der Erklärung des offensichtlich großen Einflusses der Sonne in früheren Jahrhunderten und Millenien und bei der Anwendung des gleichen Mechanismus‘ auf die Erwärmung im 20. Jahrhundert stellte Svensmark die Vorhersagen der Alarmisten in Frage – und mit ihnen die Milliarden von Dollar, die von ängstlichen Regierungen in das Geschäft der globalen Erwärmung gepumpt worden waren.

Für den Damm, der dazu gedacht war, einen wachsenden Strom von Entdeckungen aus dem Kopenhagener Frühling abzuwehren, wurde der erste Grundstein am Tag nach der ersten Bekanntmachung der Dänen über die Verbindung zwischen kosmischen Strahlen und Wolken auf einer Weltraumkonferenz in Birmingham, England, im Jahre 1996 gelegt. „Wissenschaftlich extrem naiv und unverantwortlich“ erklärte Bert Brolin als Vorsitzender des IPCC.

Da viele Journalisten sich daneben benahmen, indem sie über die Geschichte aus Birmingham berichteten, lag die oberste Priorität darin, die Medien zu zähmen. Die ersten Maurerarbeiten stellten sicher, dass alles, was Svensmark und seine Kollegen sagen könnten, ignoriert oder, falls das nicht gelingt, sofort durch einen warmistischen Wissenschaftler beseitigt wird. Seriöse Zeitungen wie The Times in London und die New York Times [und vielleicht auch die Süddeutsche Zeitung? A. d. Übers.] sowie seriöse Fernsehanstalten wie BBC reihten sich sofort ein. Enthusiastisch warmistische Magazine wie New Scientist und Scientific American brauchten kein Training in dieser Hinsicht.

Ganz ähnlich stellten die Zeitschriften Nature und Science, die in meiner Jugend sich selbst dafür priesen, vorherrschende Paradigmen herauszufordern, sehr gerne Zement für ein höheres Bauwerk zur Verfügung, um die verzwickte Hypothese auf dem wissenschaftlichen Niveau in Schach zu halten. Man streiche Svensmark die Förderung. Man weise seine wissenschaftlichen Studien zurück, aber man öffne jedem die Tür, der ihn kritisiert. Man trivialisiere seine Ergebnisse in Gestalt eines heiligen Erlasses des IPCC. Nichts davon ist für meinen Teil Paranoia, sondern eine Sache enger persönlicher Überwachung seit 1996.

„Es ist die Sonne, Dummkopf!” Die Geschichte handelt nicht wirklich von ein paar ungezogenen dänischen Physikern. Sie waren lediglich Sprecher für die brillantesten Ermittler der Klimaänderung. Da es die Sonne war, welche die Warmisten wirklich mit ihrem Damm abwehren wollten, konnten sie das nicht tun. Und was die Hilfe der Dänen betrifft, indem sie kurzerhand viele kosmische Strahlen mit großen Ausstößen von Gas davon bliesen, ermöglichte es die Sonne dem Team, detailliert der konsequenten Reduktion von Kondensationskernen und flüssigem Wasser in den Wolken auf die Spur zu kommen. Siehe hierzu auch meinen Beitrag hier. Übrigens, diese Forschungen entsorgten auch ein Häppchen Zweifel an der neuen CLOUD-Studie, dass nämlich die kleinen Speckstückchen der kosmischen Strahlen wirklich ausreichten, um Wolkentröpfchen zu bilden.

Mit dem zunehmenden Wissen hinter ihrem Damm, dass diesen zu überfluten drohte, stand den Warmisten noch eine letzte Möglichkeit zur Verfügung. Paradoxerweise war es CLOUD. Lange Verspätungen dieses Experiments, um den mikrochemischen Mechanismus des Svensmark-Effektes zu erforschen, wurden zur Hauptentschuldigung, keine Neubewertung der Rolle der Sonne bei der Klimaänderung vorzunehmen. Als der mikrochemische Mechanismus vorher durch das SKY-Experiment in Kopenhagen entdeckt und 2006 veröffentlicht wurde, sagten die Warmisten „Kein Teilchenbeschleuniger? Das bringt nichts! Wartet auf CLOUD!“ Als das Experiment in Aarhus den Mechanismus mit Hilfe eines Partikelbeschleunigers bestätigte, sagten sie “Oh, wieder diese Dänen! Wartet auf CLOUD!“

Nun, sie haben gewartet, und ihr Damm wurde gebrochen.

Hall of Shame

Was ist, wenn in der Rückschau dieser 14 Jahre die Physik so funktioniert hat, wie sie das sollte? Was wäre geschehen, wenn CLOUD, rasch angenommen und finanziert, mit all der Autorität des CERN bereits zu Anfang dieses Jahrhunderts durchgeführt worden wäre? Was wäre, wenn das IPCC hinsichtlich der Klimaänderung verantwortlich gearbeitet hätte; wenn  es die Rolle der Sonne berücksichtigt hätte und die Prophezeiungen der katastrophalen Erwärmung gedrosselt hätte?

Zunächst würde es keine Überraschung der „Schande [travesty]“ sein, dass die globale Erwärmung Mitte der neunziger Jahre mit der sich abschwächenden Sonne zum Stillstand gekommen ist. Riesige Summen für fehlgeleitete Forschung und Technologie sowie für Veranstaltungen zur Klimaänderung hätten gespart werden können. Die Armen der Welt und ihre fragile Umgebung hätten viel wichtigere Hilfe haben können als die für Vorkehrungen gegen die Erwärmung.

Und es wäre weniger Zeit für die vielen hervorragenden Leute aus Wissenschaft, Politik, Industrie, Finanzsektor, den Medien und den Künsten verblieben, sich in die menschengemachte Klimakatastrophe einzureihen. (In London beispielsweise von der Royal Society zum National Theatre). Traurig für sie, dass sie sich während der letzten zehn Jahre mit ihren warmistischen Einlassungen in die Hall of Shame gedrängt haben, wie die Bankiers vor dem Crash.

Weitere Links: Calders Aktualisierungen, 24 August 2011

Weitere Informationen zum Thema hier:

Vorbericht am 14. Mai 2011:  Update on the CERN CLOUD experiment:

Aus Physics World Head in a CLOUD [hier folgt ein Video, das das oben Gesagte in Worte fasst]

Kosmische Strahlen kommen voran in CLOUD:

Wolkenbildung könnte mit kosmischen Strahlen zusammenhängen

Studien zur Wolkenbildung werfen einen Schatten auf  bestimmte Klimamodelle:

Von der GWPF

Link zum CLOUD experiment am CERN.

Link zu diesem Artikel auf Wattsup: hier

Übersetzt von Chris Frey für EIKE

 




Energiewende: Merkels Großer Sprung. Ein kleiner Rückblick

Mao setzte beim Großen Sprung auch auf Scharlatane wie den sowjetischen Agronom Trofim Lyssenko. Der hatte schon in der UdSSR den Wissenschaftsbetrieb gründlich ruiniert, Vererbungs-Theorien beim Pflanzenmaterial entworfen, die ungeheure Ernteerträge versprachen, leider nie funktionierten. Weil sein Größenwahn dem Großen Vorsitzenden Mao gut passte, wurde Lyssenkos Lehre auch in China zum Dogma. Wer dagegen redete, kam ins Lager.

Auch bei der Eisen- und Stahlproduktion wollte Mao den Kreis quadrieren. 1957 hatte China 5,3 Millionen Tonnen Stahl produziert. 1975 sollten es ungeheure 700 Millionen Tonnen sein, so Maos Zielvorgaben. Statt moderner großer Hochöfen sollten viele kleine selbstgebastelte Öfchen, aus Sand, Steinen, Tonerde und Ziegeln gefertigt, diesen Schub auslösen und überall im Land massenhaft Eisen und Stahl erzeugen. Was bei der archaischen Produktionsweise heraus kam, war aber viel zu aufwändig produziert und außerdem von so mieser Qualität, dass es zum großen Teil nicht weiterverarbeitet werden konnte.

Erinnert das jemanden an Aktuelles? Noch etwas Geduld.

Ich selber, kurzer Ausflug, erinnere mich an eine Informationsreise ins China von 1979, wo Funktionäre die Begehung einer Eisenbrücke zum feierlichen Programmpunkt für die Besucher aus Deutschland gemacht hatten. Beim Gang über die eher schlichte Konstruktion – sie führte über einen Fluss bei Shanghai, wenn ich mich recht erinnere – fragte ich einen unserer Gastgeber, was es mit der Brücke denn nun auf sich hätte. Erfuhr, dass sie historische Bedeutung besaß. Sie war nämlich eine der wenigen, wenn nicht die einzige der Region, die aus dem berüchtigten „Volksstahl“ der Großer-Sprung-Ära gefertigt und trotzdem bis dato nicht zusammengekracht war.

Das Ergebnis des Großen Sprungs, der 1961 abgebrochen wurde, war etwas, das man einen Ökonomiezid nennen könnte. Die groteske Fehlsteuerung der chinesischen Planwirtschaft führte zu Chaos und Produktionszusammenbrüchen, schließlich zu Hungersnöten biblischen Ausmaßes, die zwischen 15 und 45 Millionen Menschen das Leben gekostet haben sollen. In der Mao-Biografie von Jung Chang und Jon Halliday werden Einzelheiten des Irrsinns in Kapitel 40 dokumentiert.

Wer heute durch den ländlichen Raum Deutschlands fährt, zum Beispiel in Niedersachsen, spürt einen Hauch von China, dem China Maos. Überall wird kleinteilig Strom produziert. Auf jedem dritten Haus steht ein staatlich gefördertes Solarfeldlein, in jeder zweiten Gemarkung daddeln Windräder, müffeln Biogasanlagen. Für die Fütterung der Letzteren hat sich schon jetzt die Landwirtschaft sichtbar und dramatisch verändert. Maisfelder ohne Ende; Maisfelder, wohin man blickt. Die Bodenpachten steigen rapide, noch mehr kleine Bauern müssen aufgeben. Der Begriff Vermaisung hat es bis in die letzte Lokalzeitung geschafft. Sogar die Naturschützer-Szene, ansonsten jedem erneuerbaren Unsinn zugeneigt, schlägt Alarm. Denn die riesigen Mais-Monokulturen, die wegen der staatlichen Förderung der „Erneuerbaren“ entstehen, schädigen die Böden, vergiften die Gewässer, vernichten Flora und Fauna. Ein alter Öko-Freak gestand mir neulich auf einer Party, er wisse selbstverständlich, dass Biogas- und Solaranlagen sinnlos seien. Was er für Windräder so nicht gelten lassen mochte, Kunststück: er ist an Windspargelfeldern finanziell beteiligt.

Noch eine Parallele zwischen Mao-China und Energiewende-Deutschland drängt sich auf. In beiden Fällen waren es Scharlatane und Ideologen, die das Märchen vom Großen Sprung, der ganz schnell machbar sei, in die Welt gesetzt haben – Trofim Lyssenko und der hl. Franz Alt von der Kirche zur solaren Erleuchtung haben in dieser Hinsicht einiges gemeinsam. In beiden Fällen basierten die Wendemärchen auf Zahlen, die keiner Überprüfung standgehalten hätten. Die phantastischen Erfolgsmeldungen, die gleich nach Beginn des Großen Sprungs von den Funktionären der chinesischen Landwirtschaft und Industrie hinausposaunt wurden, ähneln verblüffend den Hochrechnungen, die sich unsere Politiker heutzutage gern in die Tasche lügen lassen. Die Industrienation Deutschland, bis 2050 fast komplett erneuerbar energetisiert – dazu braucht man schon eine Mao-Denke.

Oder eine große Maise.

Blöd wie Brot, aber unvermeidlich wie Stuhlgang sind die üblichen Reden von windigen Geschäftemachern und grün gewendeten Politikern, die bei irgendeiner Einweihung eines heftig subventionierten Windparks in irgendeinem Entenhausen der Republik geschwungen werden. Textbaustein: „Dieser Windpark kann einen Ort von 3000 Einwohner mit Strom versorgen.“ Kann er natürlich nicht, aber kaum jemand hält dagegen. Schon gar kein so genannter Qualitätsjournalist, dessen Aufgabe es wäre, offenkundigen Unfug mit Lust zu zerpflücken.

Hier liegt noch eine Parallele zur frühen Volksrepublik China: Menschen, die es eigentlich besser wissen müssten, halten smart die Klappe. Denn wer gegen die grassierenden Energiesprung-Legenden anrecherchierte, stände in den meisten deutschen Medien schnell auf der zeitgeistigen Shitliste. Und abseits vom Mainstream zu sein, ist für die schreibenden Nachfahren der antiautoritären Bewegung – sad to say – womöglich beinahe so schlimm wie ins Lager zu wandern.

Damit endet der chinesisch-deutsche Vergleich. Nein, es wird bei uns natürlich keine Hungersnöte geben. Was wir an Nahrungsmitteln nicht mehr erwirtschaften, weil die Felder mit der Produktion von Gas-Mais beschäftigt sind, holen wir aus dem Ausland. Den Strom, welcher fehlt, weil Atomkraftwerke abgeschaltet werden und der Bau moderner Gas- und Kohlekraftwerke durch grüne BIs blockiert wird, diesen Strom holen wir uns ebenfalls aus dem Ausland. Solange, wie das Ausland partout nicht am deutschen Energiewesen genesen will. Also noch ziemlich lange.

No problem? Höchstens eines: Die hunderte Milliarden, die in ein aussichtloses Energiekonzept gesteckt werden, gibt es nicht doppelt. Sie fehlen, um neue, belastbare Energiequellen mit aller Kraft zu erforschen. Aber keine Sorge, damit beschäftigen sich längst andere. Im Ausland, wo sonst.

Energiewende-Deutschland hat dagegen den Großen Sprung. …..In der Schüssel.

von Gastautor Wolfgang Röhl

zuerst erschienen bei ACHGUT




CLOUD-Experiment beim CERN lässt Klimaschwindel auffliegen

Die elektrisch geladenen Teilchen können dann zu Keimen der Kondensation von Wasserdampf werden, indem sie anders geladene Wassermoleküle anziehen. Die winzigen, nur etwa 0,3 Nanometer großen Kondensationskerne können sich dann zu Clustern (Kondensationskeimen) von 1 bis 2 Nanometer Durchmesser zusammenballen, aus denen unter weiterem Beschuss mit elektrisch geladenen Teilchen 10 bis 20 Mikrometer große Wassertröpfchen werden können. Diese Tröpfchen können wieder zerfallen oder weiter wachsen und sich vermehren, bis sichtbare Wolken entstehen (siehe Abbildung).


Kosmische Partikel begünstigen die Tröpfchenbildung

Na und, könnte man dazu sagen. Das ist doch nichts Umwerfendes. Die Brisanz der am CERN erzielten Ergebnisse ergibt sich erst aus der Tatsache, dass die Intensität der Höhenstrahlung in der freien Natur im umgekehrten Verhältnis zur Sonnenaktivität schwankt: Ist die Sonnenaktivität (ablesbar an der Zahl und der Größe der Sonnenflecken) hoch, werden mehr kosmische Partikel vom starken solaren Magnetfeld abgelenkt. Ist die Zahl der Sonnenflecken gering, lässt das schwächere Magnetfeld mehr kosmische Strahlung in die Atmosphäre eintreten und es bilden sich mehr Wolken, was zu einer spürbaren Abkühlung der Erde führen muss.

Schon zu Beginn der 90er Jahre des vergangenen Jahrhunderts hatte der dänische Astrophysiker Henrik Svensmark auf der Basis der damals verfügbaren Klimadaten eine enge Korrelation zwischen der Sonnenaktivität und der Entwicklung der irdischen Durchschnittstemperatur festgestellt. Um die Mitte der 90er Jahre formulierte er die Hypothese, dass die wechselnde Sonnenaktivität mithilfe der Höhenstrahlung und der Wolken als Zwischenglied in erster Linie für Temperaturschwankungen auf der Erde verantwortlich sei. Schon vor 200 Jahren war dem berühmten englischen Astronomen William Herschel aufgefallen, dass die Brotpreise immer dann stiegen, wenn die Zahl der Sonnenflecken sehr niedrig war. Svensmark glaubte nun erklären zu können, warum das so ist. Doch als er seine Hypothese zusammen mit seinem Chef Eigil Friis-Christensen veröffentlichte, stellte ihn Bert Bolin, der damalige Vorsitzende des „Weltklimarates“ IPCC, als „naiv und unverantwortlich“ hin. Kein Wunder, denn Svensmarks Ansatz für die Aufklärung der Ursachen des Klimawandels widersprach dem vom IPCC in die Welt gesetzten Dogma, wonach der Klimawandel in der Hauptsache durch so genannte Treibhausgase ausgelöst wird. Svensmark bekam zunächst keine öffentlichen Gelder, um seine Hypothese im Labor zu testen. Immerhin konnte er mithilfe der Carlsberg-Stiftung das Experiment SKY, einen kleiner Vorläufer von CLOUD, durchführen.

Schon in den 90er Jahren regte der bekannte britische Wissenschaftsautor Nigel Calder an, Svensmarks Hypothese am viel besser ausgerüsteten europäischen Kernforschunsgzentrum CERN zu testen. Calder gewann die Aufmerksamkeit des am CERN arbeitenden schottischen Experimentalphysikers Jasper Kirkby, der eine Theorie der Wolkenentstehung entwickelt hatte, die mit Svensmarks Ansatz übereinstimmte. Doch das CERN konzentrierte seine Finanzmittel auf das Large Hadron Collider Experiment (LHC). Für das im Vergleich dazu bescheidene CLOUD-Experiment war kein Geld übrig. Jasper Kirkby gelang es schließlich nach zähen Verhandlungen, das CLOUD-Experiment im Herbst 2009 zu starten. Mitte 2010 erschien ein viel versprechender Zwischenbericht über den Verlauf des Experiments. Inzwischen sind die Arbeiten abgeschlossen und die Welt wartet auf die Veröffentlichung der Ergebnisse. Doch schon vorab hat CERN-Generaldirektor Rolf-Dieter Heuer in einem Mitte Juli in „Welt-online“ erschienenen Interview erklärt, er habe seine Mitarbeiter angewiesen, die Versuchsdaten ohne jegliche Interpretation zu veröffentlichen, um damit keine politische Diskussion anzufachen. Hier ein Auszug aus diesem Interview:

Welt Online: „Mit großer Spannung werden auch die Ergebnisse des so genannten Cloud-Experiments erwartet, bei der die Bildung von Wolken erforscht wird. Diese Ergebnisse könnten doch für das Verständnis des globalen Klimawandels wichtig sein?“
Heuer: „Es geht hier in der Tat darum, die Wolkenbildung besser zu verstehen. In der Natur gibt es sehr viele Parameter, die das beeinflussen – unter anderem die Temperatur, die Luftfeuchtigkeit, Verunreinigungen und auch die Höhenstrahlung. Beim Experiment „Cloud“ geht es darum, den Einfluss der Höhenstrahlung auf die Wolkenbildung zu untersuchen. Die dafür genutzte Strahlung kommt aus dem Beschleuniger. Und in einer Experimentierkammer kann unter kontrollierten Bedingungen erforscht werden, wie die Tröpfchenbildung von der Strahlung und Schwebstoffen abhängt. Die Ergebnisse werden in Kürze veröffentlicht. Ich habe die Kollegen gebeten, die Ergebnisse klar dazustellen, aber nicht zu interpretieren. Damit würde man sich sofort in die hochpolitische Arena der Klimawandeldiskussion begeben. Man muss sich darüber klar sein, dass es sich bei der Höhenstrahlung nur um einen von sehr vielen Parametern handelt.“

Das lässt vermuten, dass die Ergebnisse tatsächlich politischen Sprengstoff bergen, auch wenn sie, alleine genommen, sicher nicht genügen, um das Treibhaus-Lügengebäude zum Einstürzen zu bringen. Im Verein mit den kürzlich veröffentlichten Satelliten-Messungen der NASA, über die wir vor kurzem berichteten, könnte das aber gelingen. Diese Messungen haben klar gezeigt, dass von einem von den Menschen verursachten Hitzestau in der Atmosphäre nicht die Rede sein kann. Der gegen Ende des vergangenen Jahrhunderts registrierte Temperaturanstieg über den Landmassen der Erde, der inzwischen zum Stehen gekommen ist, muss also andere Ursachen haben. Als Erklärung bietet sich nach dem erfolgreich abgeschlossenen CLOUD-Experiment die schwankende Sonnenaktivität an. Die Billionensummen, mit denen die EU den angeblich von uns Menschen verursachten Klimawandel bekämpfen will, sind buchstäblich für die Katz.

Edgar Gärtner EIKE

der Originalbeitrag erschien hier

Weiterführende Links mit aktuellen Ergebnissen die die obigen Vermutungen bestätigen hier :

1. Die Welt Unterschätzen wir die Sonne nicht!

2. GWPF CERN Experiment Confirms Cosmic Rays Can Influence Climate Change

und hier besonders ausführlich

3. Dirk Maxeiner auf ACHGUT: Cloud-Experiment am Cern oder: Ein Loch ist im Treibhaus

4. Goethe Universität Frankfurt: Klimamodelle: Beschreibung der Aerosolneubildung muss revidiert werden