Neues wissenschaftliches Experiment widerlegt „Treibhauseffekt“!

Nun ist das nichts weiter als wissenschaftlicher verbrämter Unsinn, was seriösen Wissenschaftlern, auch solchen die überzeugt dem IPCC zuarbeiten, seit langem bekannt ist. Trotzdem darf dieser Unsinn heute in keinem Schulbuch fehlen. Doch schon vor über 100 Jahren hat der amerikanische Experimentalphysiker Robert W. Wood  an der Hopkins Universität nachgewiesen, dass dies alles nicht stimmt und einer wissenschaftlichen Überprüfung nicht standhält. 
Jetzt hat Professor Nahle im mexikanischen Monterrey mit Unterstützung eines Teams von internationalen Wissenschaftlern originalgetreu sein berühmtes Experiment aus dem Jahr 1909 wiederholt, um zu belegen, dass der "Treibhauseffekt" nicht der Grund für eine globale Erwärmung sein kann!
Erstaunlicherweise wurde das Treibhausexperiment, das 1909 zum ersten Mal von Prof. Robert W. Wood an der John Hopkins University durchgeführt worden war, ein Jahrhundert lang nicht wiederholt*. Und das, obwohl inzwischen über 100 Milliarden Dollar durch die Industrie der anthropogen verursachten globalen Erwärmung ausgegeben worden sind, um zu beweisen, dass Kohlendioxid ein gefährlicher atmosphärischer Verschmutzer ist.
Die verwendete und eingängig plausible Analogie war, dass sog. Treibhausgase (z. B. CO2) sich wie das Glas in einem Treibhaus verhalten, die die Wärme in der Erdatmosphäre gefangen halten und (wegen der menschlichen industriellen Emissionen) den Planeten gefährlich überhitzen.
An den Biology Cabinet Laboratories konnte Professor Nahle nun Woods erstaunliche Ergebnis bestätigen: Dieser hatte die ganze Zeit recht! Nach der wissenschaftlichen Begutachtung bestätigen die Ergebnisse, dass der sog. „Treibhauseffekt“ allein durch die Blockierung des konvektiven Wärmetransfers innerhalb der Umgebung, in der er sich abspielt, verursacht wird. In diesem Fall war das ein Laborkasten aus Karton. Mit einem Deckel aus unterschiedlichen lichtdurchlässigen Materialien. Aber undurchlässig bzw. durchlässig für Infrarot. Sie sind in jedem Zubehörhandel zu bekommen.

Zitat Tatsächlich ist es nur das Bedeckung der Laborbox (umfunktioniert zum ‚Treibhaus’), dass die Wärme die ganze Zeit „eingefangen“ hat. Die Box (oder "Treibhaus") ist etwas, das die Wissenschaftler ein ‚geschlossenes System‘ nennen; wohingegen die Erdatmosphäre überhaupt nicht geschlossen ist, sondern ziemlich weit zum Weltraum hin offen ist, so dass die Wärme frei entweichen kann.

Die Ergebnisse von Nahle zertrümmern nicht die Phantastereien eines Latif sondern z.B. auch die Behauptungen eines Professor Pratt von der Stanford University, dessen eigene Wiederholung von Woods Experiment, als die erste offizielle Rekonstruktion von Woods Test seit einem Jahrhundert beworben worden ist. Pratt hatte behauptet, dass er Woods Ergebnisse widerlegt hat.

„Das ist der Grund für meinen Entschluss, das Experiment von Professor Pratt zu wiederholen, um seine Ergebnisse und damit die von Professor Wood zu bestätigen oder zu widerlegen”, sagt Nahle von Biology Cabinet.

In der Einführung zu seiner Arbeit schreibt  Nahle hier

von Nasif S. Nahle Universitätsprofessor, Scientist, Scientific Research Director bei Biology Cabinet © Monterrey, N. L., Mexiko.
Nahle, Nasif S. Wiederholbarkeit des von Professor Robert W. Wood ’s 1909 durchgeführten Experiments zur Theorie des Treibhauses. 12. Juni 2011. Biologie Cabinet Online, Academic Resources. Monterrey, N. L.
* Der Autor ist dankbar für die Principia Scientific International Team für die freundliche Unterstützung mit dem Text, trotzdem sind Fehler in den Text mir allein.


Abbildung 1: Darstellung der Messboxen
Kurzfassung:
Durch diese kontrollierte Experiment demonstriere ich, dass die wärmende Wirkung in einem echten Treibhaus nicht durch langwellige Infrarot-Strahlung die im Inneren des Treibhauses eingeschlossen wird, erzeugt wird, sondern durch die Blockade der konvektiven Wärmeübertragung mit der Umgebung, wie von Professor Wood in seinem 1909 Experiment bewiesen.
Einleitung:
Im Jahre 1909 führte Professor Wood ein Experiment aus bezogen auf die erhöhte Temperatur in einem Treibhaus bei Sonneneinstrahlung, zur Überprüfung der Wirkung der langwelligen Infrarot-Strahlung, die in einem Treibhaus eingeschlossen ist, 
Sein Experiment ist in einem Artikel beschrieben, der in der Zeitschrift Philosophical Magazine im Jahr 1909. (Siehe Referenz [1] veröffentlicht wurde.
Durch sein Experiment, fand Professor Wood, dass die Erhöhung der Temperatur in einem Gewächshaus nicht durch eingeschlossene Strahlung, sondern durch die Blockade der konvektiven Wärmeübertragung zwischen dem Inneren des Gewächshauses und der offenen Atmosphäre erfolgte.
Da es von anderen Wissenschaftlern keine anderen Dokumente gibt, die versuchten, das Experiment von Professor Wood zu wiederholen, es sei denn das Experiment von Professor Pratt [2], das im Widerspruch zu den Ergebnissen von  Professor Woods Experiment steht, ist eine andere wissenschaftliche Untersuchung durch einen dritten Schiedsrichter nicht nur empfehlenswert, sondern auch notwendig. Dies ist der Grund, dass ich beschloss, das Experiment von Professor Pratt zu wiederholen, um ihn oder Professor entweder zu widerlegen oder ihre Ergebnisse zu bestätigen 
Die folgenden Zeilen beschreiben die Versuche die von mir durchgeführt  wurden und ihre Ergebnisse. Alle Details siehe hier http://www.biocab.org/Experiment_on_Greenhouse_Effect.pdf


Abbildung 2: Hier werden die Messergebnisse  der verschiedenen "Treibhäuser" gezeigt mit Deckeln, die tlw. aus unterschiedlichen Materialien bestanden. Infrarot durchlässig und nicht durchlässig. Im Vergleich dazu eine offene Box. Deutlich sichtbar. Kein signifikanter Unterschied, zwischen den verschiedenen Materialien
Im Paper beschreibt Nahle seine Arbeit im Forschungsinstitut in Monterrey in der er Woods Test über den Effekt der langwelligen infraroten Strahlung wiederholt, die in einem Treibhaus eingefangen war. Anders als Pratt  fand er, dass Woods Ergebnisse korrekt, absolut gültig und systematisch wiederholbar waren. Der Mann von Bio Cab bestätigte:

„Der Treibhauseffekt, wie er in vielen didaktischen Büchern und Artikeln beschrieben wird, existiert nicht“.

Einfach gesagt: einige der zuvor erwähnten Professoren haben ihre Reputation gefährlich aufs Spiel gesetzt, und Nahle verlangt zu Recht nach einer Erklärung von seinem Kontrahenten Pratt in den USA. Ein Hinweis vorweg auf das Ergebnis: Pratt war zu dieser Arbeit nicht wissenschaftlich qualifiziert – er ist ein Erwärmungsanhänger und Mathematiker, der sich auf Computer spezialisiert hat.

Satellitenaufzeichnungen stützen die mexikanischen Ergebnisse

Die Ergebnisse von Professor Nahle werden für niemanden eine Überraschung sein, der auf dem neuesten Stand der jüngsten Klimaergebnisse ist, Sie lassen erhebliche Zweifel am sog. "Treibhauseffekt" aufkomme. Die NASA gibt jetzt zu, dass derzeit trotz des ungebremsten CO2-Anstiegs keine globale Erwärmung im Gange ist.
Unverständlicherweise gibt die einst so erhabene US-Weltraumagentur China die Schuld an der fehlenden Erwärmung. Die rapide Industrialisierung dieser Nation emittiert so viel Schwefeldioxid, dass es unsere Erde „abkühlt“, sagen sie.

Hintergrund der Mythologie vom Treibhausgas

Die Wissenschaft von Professor Wood setzte sich bis Mitte der dreißiger Jahre durch, nachdem er bewiesen hatte, dass die Blockierung des konvektiven Wärmetransfers mit der Umgebung zu einer Temperaturzunahme innerhalb des Treibhauses um 10,03°C führte, unter Berücksichtigung der Umgebungstemperatur.
Nach dem Zweiten Weltkrieg erwachte das Interesse an der THE These kurzzeitig erneut. Aber die American Meteorological Society verwarf diese These im Jahre 1951, nachdem sie alle verfügbaren Daten begutachtet hatte, und veröffentlichte das „Compendium of Meteorology“, um die kultischen Behauptungen abzuwürgen.
Allerdings gelang es den Angstmachern Mitte der achtziger Jahre, die Idee eines THE wieder zum Leben zu erwecken. Die Gründung des IPCC 1988 war die unmittelbare Folge. Die Riokonferenz 1992 zur Nachhaltigkeit bereitete den internationalen politischen Boden vor, unter aktiver Beteiligung der jetzigen Bundeskanzlerin Frau Dr. Merkel. Ihre Energiegesetzgebung, vor allem mit dem "Klimaschutz" begründet und dem Ziel die konventionelle Energieversorgung nachhaltig zu zerstören, ist die unmittelbare, gezielt angestrebte Folge dieser Märchens vom "Treibauseffekt".  Es ist nicht nur höchste Zeit für ein Umschreiben der Schulbücher, sondern insbesondere für einen Politkwechsel. Denn es ist bereits fünf nach zwölf.
Michael Limburg unter Verwendung von Textsegmenten von John O´Sullivan. Übersetzt von Chris Frey für EIKE. 
O´Sullivans Orginalbeitrag finden Sie hier
(1) Bild-Zeitung vom 20.09.07 Seite 13

Update 23.7.11 

* Wie Leser W. Erley in dankenswerter Weise hinwies wurde bereits 2 Jahre vor Nahle das Experiment von Wood von E. Look mit im Wesentlichen denselben Ergebnis und sehr ausführlich beschrieben, wiederholt. Details dazu hier.
Leser Ermecke weist mit unverständlicher Empörung darauf hin dass ….es die Autoren Gerlich/Tscheuschner waren, …die Prof. Wood und das "Woodsche Experiment" aus dunkler Vergangenheit wieder ans Licht und in die wissenschaftliche Diskussion gebracht hatten. Dies sei hiermit pflichtschuldigst nachgeholt. 
Links:
Co2sceptic (Site Admin)
 http://climaterealists.com/index.php?id=8073




Zur Radioaktivität und Strahlen– einige Fakten!

Erhellendes hat auch die Bundestagsabgeordnete und atompolitische Sprecherin der Grünen, Sylvia Kotting-Uhl, beizutragen.

In einem Interview sagte sie:
„Wir haben außerhalb der Schutzzone gemessen, weil es dort eine breite Schneise von Fukushima-Daiichi aus Richtung Nord-Westen gibt, die stark kontaminiert ist. Wir waren an einem Ort, an dem noch ungefähr zehn Prozent der Menschen leben. Es sieht aber nicht so aus, als wären die Verbliebenen schon am Packen, sondern sie verrichten ganz normal ihren Alltag. Wir haben dort elf Mikrosievert gemessen, unter einem Abflussrohr sogar 500. Wenn ein Mensch ein Jahr lang dort leben würde (unter einem Abflussrohr?), käme er auf eine Jahresdosis von 89 mSv. Das ist mehr als das Vierfache der Grenzwertdosis, der ein Arbeiter in Atomkraftwerken ausgesetzt sein darf.“

Nach ihrer Meinung beträgt der Grenzwert wohl 20 mSv.

Auf den Punkt bringt es infamerweise der Umweltminister:

„Das war eine Gelegenheit, und wir haben zugegriffen“, sagte Röttgen. (2)

Ziehen wir ein kurzes Zwischenfazit.

Frau Merkel hat neue fundamentale physikalische Erkenntnisse gewonnen. Deren Wert betrachten wir gleich.
Für den Grünen Untersteller sind Tschernobyl und Fukushima gleich, Dies beweist entweder völlige Unkenntnis oder totale Volksverdummung. Seine Parteifreundin hat revolutionäre Messungen durch- und wundersame Rechnungen ausgeführt, denn weder 11 µSv, 500 µSv noch 511/2 µSv ergibt pro Jahr 89 mSv.
Der Tod von 25.000-27.000 Opfern, primär durch den Tsunami verursacht, war für Röttgen die herbeigesehnte Gelegenheit. Man liest förmlich zwischen den Zeilen, mit ein paar Nukleartoten wäre dies noch besser gewesen.
Bevor wir uns den physikalischen Aspekten zuwenden, sei zum Anfang an eine Aussage von Paracelsus erinnert.
Nach Paracelsus ist jeder Stoff ein Gift für den Körper, es kommt nur auf die Dosis an.
Auf den folgenden Seiten bis zum Kasten auf Seite 6 werden physikalische Grundlagen betrachtet. Wer will kann diese erst einmal überspringen und sie später lesen.
Die wenigen englischen Passagen stammen aus dem Buch „Radiation and Reason“ von Prof. Wade Allison. Er lehrt seit mehr als 40 Jahren medizinische und Strahlenphysik an der Universität von Oxford in England.

Eindringtiefe und Wechselwirkung von α-Strahlung mit Materie

Ein α-Teilchen ist ein zweifach ionisiertes He-Atom, welches auf seinem Weg eine Ionisierung von anderen Atomen bewirkt. Die Reichweite ist ziemlich gering, wie der nachstehenden Tabelle entnommen werden kann, deshalb ist es leicht abzuschirmen, aber mögliche Sekundärstrahlung muss beachtet werden.

Eindringtiefe und Wechselwirkung von β-Strahlung mit Materie

Ein β-Strahler emittiert Elektronen, die bei einer Kernspaltung freigesetzt wer-den. Deren Wechselwirkung mit Materie ist kleiner als die von  α-Strahlung und folglich ist die Anzahl der erzeugten Ionenpaare pro Länge geringer und die Rechweite größer.

Eindringtiefe und Wechselwirkung von  γ-Strahlung mit Materie


Die γ-Strahlung besteht aus hochenergetischen Photonen, die durch Absorption ein oder mehrere Elektronen aus einem Atomverband lösen können (Photoeffekt). Auf Grund der Energie geschieht dies bevorzugt für die inneren Niveaus. Dieser Prozess dominiert bei relativ geringen Energien. Bei mittleren Energien überwiegt die Comptonstreuung, bei der das Photon ein Elektron entfernt und seine Richtung ändert.Bei hohen Energien (E > 1.022 MeV) tritt Paarbildung auf, bei der ein Elektron-Positronpaar gebildet wird. Hierzu ist minimal eine Energie von 1.022MeV notwendig. Die restliche Energie geht in die kinetische Energie der Teilchen ü-ber. Die Eindringtiefe ist material- und energieabhängig, wie die folgende Ta-belle der Halbwertsschichten, die Hälfte der Strahlung wird absorbiert, zeigt.

Eindringtiefe und Wechselwirkung von Neutronen mit Materie

Die Wechselwirkung von Neutronen mit Materie erfolgt entweder durch elastische und inelastische Stöße oder durch das Einfangen eines Neutrons im Kern. Beim elastischen Stoß bleibt für die Stoßpartner die Gesamtenergie erhalten. Der „ruhende“ Atomkern kann dabei aber soviel Energie erhalten, dass er den Atomverband verlässt und dabei andere Atome ionisiert. Beim inelastischen Stoß erfolgt eine Anregung des Kerns und eine Abbremsung des Neutrons. Durch Relaxation geht der Kern später wieder in den Grundzustand, wobei ein gamma-Quant ausgestrahlt wird. Die Abbremsung ist dann am größten, wenn die Stoßpartner gleiche Massen haben. Deshalb wird in den meisten AKW Wasser als Moderator verwendet. Als elektrisch neutrale Teilchen dringen Neutronen tief in Materie ein – viele Zentimeter in den typischen technischen Strukturmaterialien. Als freie Teilchen sind Neutronen allerdings aufgrund der schwachen Wechsel-wirkung nicht stabil und zerfallen in ein Proton, ein Elektron und ein Antineutrino mit einer Halbwertszeit von ca. 890 s.

Kernspaltung

Wir beschränken uns hier auf die Kernspaltung von 235U, weil dies das wichtigste Reaktormaterial ist. Bei der Kernspaltung von Uran-235 wird durch Einfan-gen eines Neutrons der Urankern zur Spaltung angeregt. Dabei entstehen im Allgemeinen zwei – seltener drei – Spaltprodukte, zwei bis drei Neutronen und Energie. Dies ist schematisch in der folgenden Graphik dargestellt.

235U hat eine natürliche Halbwertszeit von 703,8 Mio. Jahre. Es steht am Beginn der Uran-Actinium-Reihe und tritt mit einem Anteil von etwa 0,7 % in natürlichem Uranvorkommen.
Die Spaltung erfolgt, weil die Bindungsenergie für die Nukleonen in den Spalt-produkten größer als im Uran ist.

Energie wird bei dem Prozess freigesetzt, weil es einen Massendefekt gibt (Delta E=  Delta m· c2). Je größer der Massendefekt ist, desto stabiler ist der Atomkern, da mehr Energie zu seiner Zerlegung aufgewendet werden muss. Die dabei frei werdende Energie ist gegenüber chemischen Prozessen, die durch Elektronen-austausch erfolgen, um Größenordnungen höher.

Bei der Spaltung von einem Kilogramm 235U wird somit eine nutzbare (abzüglich der Neutrinos, die extremst selten eine Wechselwirkung mit Materie zeigen) Energie von rund 21 Millionen kWh freigesetzt. Dies entspricht einer Verbrennungsenergie von 2600 Tonnen kg Steinkohle (1 Steinkohleeinheit = 7000 kcal pro kg). Eine Tonne Steinkohle kostete im 4. Quartal 2010 rund 93€, was für 2600 t rund eine viertel Million ergibt. Der Preis pro kg Uran betrug ungefähr 120 $, was annähernd den Preis einer Tonne Steinkohle entspricht. Nach einer amerikanischen Studie gibt ein 1GW Kohlekraftwerk pro Jahr bis zu 5.2t Uran und 12.8t Thorium an die Umwelt ab. (3) In Ungarn zeigten Messungen in der Umgebung von KKW eine bis zu fünfmal über den natürlichen Anteil liegende Konzentration von den Radionukliden 238U, 226Rn, 232Th, 137Cs und 40K. 4 Dies übersteigt die Belastungen in der Nähe von Kernkraftwerken um ein Vielfaches, wie durch die nächste Abbildung für die Schweiz demonstriert wird.

Trotzdem demonstrieren die Grünen gegen AKW wegen der Radioaktivität aber nicht gegen KKW, obwohl sie doch generell gegen Radioaktivität sind. Die KKW werden von ihnen verteufelt wegen des Ausstoßes des lebenswichtigen CO2, aber nicht wegen der radioaktiven Materialien. Logik ist offensichtlich kein Bestandteil grüner Politik. Obwohl die Kernenergie billig und zuverlässig ist, steigt Deutschland komplett und unumkehrbar, die Welt wundert sich und die Zukunft wird darüber lachen, aus. Begründet wird dies stets mit Tschernobyl und als Anlass dient Fukushima. In Japan gab es bis heute keinen Strahlentoten und vermutlich auch keinen bedrohlich Verstrahlten.
Der letzte UN-Bericht („The Chernobyl Forum“) zu Tschernobyl stammt vom Februar 2011. In ihm steht:

„Some of the reactor staff and emergency workers received, on 26 April 1986, high doses of external gamma radiation estimated to vary from 2 to 20 Gy, and as a result 28 of them died within first four months from radiation and thermal burns, and another 19 died over the years up to 2004.”

GREENPEACE macht aus 47 Opfern 90.000 Tote.

Soviel zu deren Glaubwürdigkeit. Die Dosis und die Mortalität der in Tschernobyl eingesetzten Arbeiter sind in der folgenden Graphik abgebildet. Man beachte, dass ein nichtlinearer Zusam-menhang besteht und dass ganz klar ein Schwellwertverhalten vorliegt. Von den 140 Verstrahlten mit einer Dosis kleiner 2000 mSv starb keiner und von den 55, die eine Dosis zwischen 2.000 und 4.000 mSv erhalten haben, überlebten 54.

Wir erinnern uns an die grüne atompolitische Sprecherin, die von dramatischen 11 µSv (5 Größenordnungen kleiner!) bzw. 500 µSv unter einem Rohr berichtet. Wie sie allerdings daraus 89 mSv pro Jahr errechnet, bleibt ihr Geheimnis. Ohne Angabe, was die Strahlung verursacht (Jod hat eine Halbwertszeit von 8 Tagen, was bedeutet, dass es relativ viel Energie (Sv) in kurzer Zeit von sich gibt, während Cs mit 30 Jahren wenig über lange Zeiten emittiert), ist die Aussage Null und Nichtig.
Dies wird auch deutlich, wenn man sich die Strahlendosis für die Ukraine und Weißrussland ansieht.
Im UN-Bericht steht dazu:

„Doses that could only be estimated some time after they occurred by careful evaluation of all available information were 17mSv on average to Ukrainian evacuees, with doses to individuals ranging from 0.1 to 380mSv. The average dose to Belarusian evacuees was 31mSv, with the highest average dose in two villages being about 300mSv.”

Es sei hier erwähnt, dass die Dosen niedriger sind, als die natürliche in vielen bekannten Gebieten in der Welt (China, Indien Iran, Brasilien). In Bad Gastein (Österreich), z.B., beträgt die natürliche in der Ortsmitte 20-80 mSv. Für das Personal der Badebetriebe ist der Wert noch deutlich höher. Ob den grünen Kur- und Badegästen dies schon einmal aufgefallen ist?
Weiterhin wird festgehalten:

“Because of the generally low doses received, however, there of any measurable effect of Chernobyl radiation exposures general population except for childhood thyroid cancer, since gland were received by children in contaminated areas.”“For the 1152 thyroid cancer cases diagnosed among children in Belarus during1986–2002 and treated, the survival rate was 98.8%. Eight patients (0.7%) died due to progression of the thyroid cancer, and 6 children (0.5%) died from other causes.”

Es ist zu vermuten, dass auch diese Kinder hätten gerettet werden können, wenn erstens die Russen ihre Nachbarn informiert und diese den Betroffenen rechtzeitig Jodtabletten gegeben hätten.
Die Tabletten hätten die Inkorporation des radioaktiven Jods in die Schilddrüse verhindert. Da sie aber zu spät verabreicht wurden, bewirkten sie das Gegenteil, denn nun wurde das Ausscheiden vermindert.
Die Zahl der möglichen zukünftigen Strahlentoten durch Tschernobyl wird durch die UN auf 4.000 beziffert. Da aber in den betroffenen Gebieten (gesamte betroffene nördliche Hemisphäre) in den nächsten 70 Jahren rund 650 Millionen an natürlichen Krebs sterben werden (5) , können nur grüne Rechenkünstler diese statistisch herausfiltern.
Aber selbst diese relativ kleine Zahl von potentiellen Opfern, einer auf 162.500 (0.006‰) natürlichen Krebsopfern, könnte noch zu groß sein, wenn man die Erfahrungen, die durch Hiroshima und Nagasaki gesammelt wurden, ins Kalkül zieht.
Die folgende Tabelle zeigt die Krebstoten durch die Bombenabwürfe verglichen mit einer Bevölkerungsgruppe, die den Einwohnern der beiden Städte entspricht, aber nicht von der Strahlung betroffen wurde. Die erste Spalte gibt die Dosis wieder, die die einzelnen Gruppen der Überlebenden der Abwürfe erhalten haben. Die dritte Spalte beinhaltet die an Krebs gestorben in Hiroshima und Nagasaki, während die 4., die an Krebs gestorbenen in der nicht betroffenen Region enthält. Der gesamte Unterschied beträgt 480 oder rund 0.5% der Überlebenden von Hiroshima und Nagasaki starben infolge der Strahlung an Krebs. 6

Im vergangenen Jahrhundert waren Uhren deren Ziffern nachts leuchteten in Mode. Die Luminosität wurde hierbei durch alpha-Strahlung emittierendes Radium erzeugt. Gefährlich wurde dies für die Ziffernblattmaler deshalb, weil sie den Pinsel mit dem Mund anspitzten. Dadurch gelang das Radium in den Körper, wo es sich in den Knochen ablagerte und in dem die komplette Energie absorbiert wurde.
Untersuchungen zeigten nun, dass von den 191 Arbeitern, die mehr als 10 Gy (100Sv, D=10) im Laufe ihres Arbeitslebens akkumulierten 46 an Knochenkrebs starben. Jedoch unter den 1339 Arbeitern, die weniger als 10 Gy erhielten, gab es keinen Fall von Knochenkrebs. Ein vielleicht noch erstaunlicheres Ergebnis fand man für eine große Anzahl von Beschäftigten (174.541), die in diversen Berufen einer erhöhten Strahlendosis von 24.9 mSv im Mittel über der normalen pro Jahr, ausgesetzt waren.
Die Sterblichkeitsrate an Krebs betrug unter diesen 81-84% (!) gegenüber der vergleichbaren Bevölkerung. Also, Strahlung kann sogar gesund sein. Viele Heilbäder beruhen auf den Effekt, siehe Bad Gastein, Bad Karlsbad (Karoly Vary) etc.
Wie kann man dies verstehen? Es kommt eben immer auf die Dosis an. Strahlung an sich führt nicht zu irreparablen Schäden. Leben hat sich in einer strahlenden Umgebung entwickelt und daran angepasst. Die Natur hat Reparaturmethoden entwickelt, welche ganz effektiv sind, falls nicht kritische Schwellwerte überschritten werden und genügend Reparaturzeit zur Verfügung steht. Deshalb kann ein „Training“ durch unterkritische Bestrahlung zu einer Erhöhung des Schwellwertes führen.
So ein Mechanismus ist in der Physik wohlbekannt und firmiert dort unter den Namen optisches Härten. Dabei wird der Zerstörschwellwert von optischen Materialien gegenüber Laserstrahlung durch gezieltes, vielfaches Bestrahlen mit unterkritischer Laserstrahlung gegenüber unbehandelten Proben erhöht.
So wie der Schwellwert für optische Strahlung stark zwischen den verschiedenen Materialien variiert, gibt es in der Natur auch keinen einheitlichen Wert bezüglich der radioaktiven Strahlung. Die Dosis, bei der nach kurzzeitiger Ganzkörperbestrahlung 50% der Individuen innerhalb von 30 Tagen sterben beträgt für den Mensch 7 Sv, für den Hamster 9 Gy, für die Schnecke 200 Gy und für die Amöbe 1000 Gy. 7Selbst diese hohen Dosen sind keine Absolutwerte. In der Chemotherapie werden häufig viel höhere Dosen eingesetzt um das Leben der Patienten zu retten und nicht um sie umzubringen.
Herr W. (ich habe seinen Bericht vorliegen, möchte aber seine Anonymität wahren) erhielt z.B. vor 2 Jahren 44 Gy ins Gesicht und erfreut sich inzwischen bester Gesundheit. 44 Gy, dieser Wert ist 4 Millionen Mal höher als die von der grünen Expertin gemessene und als dramatisch empfundene Dosis von Fukushima.
Es wäre sicher hilfreicher gewesen, wenn sie statt auf Steuerkosten nach Fukushima zu jetten, man denke nur an den CO2-Ausstoß, eine Strahlenklinik in Deutschland besucht hätte.

Ziehen wir ein Fazit: Der Mensch hat kein Organ zur Wahrnehmung von radioaktiver Strahlung.

Deshalb hat er Jahrtausende furchtlos mit ihr Leben können. Nach deren Entdeckung durch die Curies, den Bau und Einsatz von Atombomben und der poli-tisch gewollten Verknüpfung von atomaren Waffen und AKW hat sich dies grundlegend geändert. Dies ist aber ein politisches und kein physikalisches Problem.
Fukushima hat keine neuen physikalischen Erkenntnisse gebracht. Es hat aber bewiesen, dass ein AKW unbeschädigt ein Erdbeben der Stärke 9 überstehen kann, obwohl es „nur“ für eine Stärke von 8.2 konzipiert war. Das Problem war der Tsunami, der zu dem Ausfall der elektrischen Versorgung führte, und die Knallgasexplosion, welche durch den Einsatz elektrischer Rekombinatoren ver-ursacht wurde. In deutschen AKW werden autarke Rekombinatoren eingesetzt.
Übrigens hat die Bundesregierung gerade eine Gefährdung der unteririschen CO2-Speicherung durch Erdbeben in Deutschland ausgeschlossen. (8)
Aber für oberirdische AKW besteht sie. Frau Merkels Logik wird wohl immer grüner. Eine Verteufelung der Radioaktivität per se ist wider die Natur. Radioaktivität gibt es überall und zwar mit einer ganz großen Bandbreite. Mehr noch, Radioaktivität kann in milden Dosen, die aber ein Vielfaches der angeblichen grünen Grenzwerte betragen, gesundheitsfördernd sein, wie Heilbäder seit Jahrhunderten bezeugen.
Aber auch in sehr hohen Dosen, wie sie in der Krebsbekämpfung verwendet werden, kann sie lebensrettend eingesetzt werden.Der unmotivierte Ausstieg aus der Kernenergie ist wissenschaftlich nicht begründbar und volkswirtschaftlich ein Desaster.
Dr. rer. nat. Bernd Hüttner für EIKE

Ergänzung: Leser Dr. Hinsch – des Japanischen mächtig schreibt uns zu den Berichten über die Strahlenopfer in Fukushima folgendes:

An alle Ungläubigen gegenüber der heutigen Öko-Staatsreligion!  

Am 24. März 2011 ging durch alle Medien ein Bericht, drei AkW-Arbeiter in Fukushima wären schwer verstrahlt worden. Aber was hatte das für Folgen? Nach meiner Kenntnis wurde das von den deutschen Medien unterschlagen. Falls es doch Berichte gibt, die mir entgangen sind, wäre ich für einen Hinweis dankbar.
Da ich aus dem Japanischen übersetzen kann, habe ich die Ereignisse von Fukushima auch anhand der Internetausgabe der "Asahi Shimbun" verfolgt, Japans zweitgrößter Tageszeitung. Da wurde folgendermaßen berichtet:
"Im Block 3 des Kernkraftwerks Fukushima 1 wurden die Arbeiten zur Wiederherstellung der Stromversorgung fortgeführt. 3 mutige Arbeiter setzten sich bei der Verlegung von Kabeln erheblichen Strahlenbelastungen aus"
Und weiter:
"Die Strahlendosen in der oberen Körperhälfte lagen im Bereich von 173 bis 180  mSv (Als Maximalwert hatte man 250 mSv festgesetzt). Bei zwei Arbeitern zeigten sich jeweils an beiden Füßen Symptome, welche auf eine Strahleneinwirkung hindeuteten. Man brachte alle drei in ein Krankenhaus der Stadt Fukushima."
Soweit die Zeitung. 2 Arbeiter waren ohne Gummistiefel in 30 cm hohem Wasser herumgewatet.
Drei Tage später, am 27. März 2011, konnte "Asahi Shimbun" berichten:
"Die 3 Arbeiter, welche mit radioaktivem Wasser in Berührung gekommen waren, werden aus dem Krankenhaus entlassen. Sie hatten Dosen von 2 – 3 Sievert abbekommen.
Das auf Strahlenmedizin spezialisierte Krankenhaus Hoiyaken gab heute bekannt: Die 3 Arbeiter, welche eingeliefert wurden, nachdem sie bei Wiederherstellungsarbeiten im Kernkraftwerk Fukushima 1 mit stark radioaktivem Wasser in Berührung gekommen waren, werden am 28. März 2011 entlassen. Ihre Körper sind gänzlich ohne medizinischen Befund. Zunächst angenommene verbrennungsähnliche Symptome, über die man sich Sorgen gemacht hatte, existieren nicht.
2 von den 3 Arbeitern waren mit ihren Füßen in radioaktivem Wasser gewesen. Die Dosis, welche ihre Füße dabei erhalten hatten, wurde so genau wie möglich ermittelt. Sie lag wahrscheinlich im Bereich von 2 bis 3 Sievert. In den Richtlinien für Arbeitssicherheit ist der obere Grenzwert bei Katastrophen auf 1 Sievert festgesetzt (Anmerkung: Für Hände und Füße); dieser Grenzwert wurde hier um das zwei- bis dreifache überschritten. Bei der Einlieferung ins Krankenhaus hatte man zunächst eine Dosis von 2 bis 6 Sievert angenommen. Durch das Herumlaufen in radioaktivem Wasser könnte auch Radioaktivität in die Körper der betreffenden Arbeiter gelangt sein. Im Krankenhaus wurde berechnet, wie viel das sein kann. Für einen merklichen Einfluss auf die Gesundheit ist es zu wenig."
Wer kann dazu etwas sagen?
Dr. Hermann Hinsch 

Quellen zum Beitrag von Dr. Hüttner:

1 http://www.bundesregierung.de/nn_1264/Content/DE/Rede/2011/06/2011-06-20-bkin-jahreskonferenz-rat-nachhaltige-entwicklung.html
2 http://www.tagesspiegel.de/politik/merkel-einsichten-die-ich-heute-teile/4306078.html
3 A Gabbard ORNL Review 26 (1993) 3 and 4
4 Papp et al. – J. of environmental radioactivity 59 (2002) 191
5 PSI Energiespiegel Nr. 13 (2005)
6 D L Preston et al. –Radiation Research 162 (2004) 377-389
7 http://www-user.tu-chemnitz.de/~mhie/Kerne_Elementarteilchen/KP_ET_10.pdf
8 Deutscher Bundestag Drucksache 17/6149
Der Beitrag kann als pdf im Anhang heruntergeladen werden

Related Files




Klimageld – Zusammenfassung für politische Entscheidungsträger

Trotz der Milliarden: „Audits“ der Wissenschaft werden unbezahlten Freiwilligen überlassen.

Eine bestimmte, aber weitgehend unkoordinierte Basisbewegung von Wissenschaftlern ist um den Globus gejettet, um die Integrität der Theorie zu prüfen und sich mit einem gut finanzierten und wohlorganisierten Klimamonopol anzulegen. Sie haben erhebliche Irrtümer bloßgestellt.

Der Kohlenstoffhandel weltweit erreichte 2008 126 Milliarden Dollar. Banken rufen nach noch mehr Kohlenstoffhandel. Und Experten erwarten, dass der Kohlenstoffmarkt noch 2 bis 10 Billionen Dollar [trillions] erreicht, was den Kohlenstoff zum größten gehandelten Einzelposten macht.*

*Siehe Bemerkung weiter unten vor dem entsprechenden Abschnitt. A. d. Übers.

Auf einem ablenkenden Nebenschauplatz wird inzwischen die Exxon-Mobil-Corp. wiederholt angegriffen, weil sie insgesamt 23 Millionen Dollar an Skeptiker gezahlt haben sollweniger als ein Tausendstel dessen, was die US-Regierung gezahlt hat, und weniger als fünf Tausendstel des Wertes des Kohlenstoffhandels allein im Jahre 2008.

Der riesige Aufwand, der bei der Suche nach einem Zusammenhang zwischen Kohlenstoff und Klima betrieben wird, erzeugt eine enorme Eigendynamik und ein mächtiges Kartell fest begründeter Interessen.

Indem wir so viel Geld in  eine Frage gepumpt haben – haben wir da nicht aus Versehen eine sich selbst erfüllende Prophezeiung geschaffen anstatt einer unvoreingenommenen Untersuchung?

Kann die Wissenschaft eine solche schraubstockartige Umklammerung von Politik und Finanzwelt überleben?

Milliarden im Namen des „Klimas“

Insgesamt wird die US-Regierung während der letzten 20 Jahre bis zum Ende des Finanzjahres 2009 32 Milliarden Dollar [1,2] für die Klimaforschung ausgegeben haben – und weitere 36 Milliarden [3,4,5] für die Entwicklung von Technologien in Bezug auf das Klima. Dies sind aktuelle Zahlen, entnommen den Berichten der Regierung und nicht inflationsbereinigt. Zuwendungen anderer Regierungen oder der globalen Industrie sind darin nicht enthalten.

1989 wurde die erste US-Agentur gegründet, die sich speziell mit dem Thema Klima befassen sollte, mit einem jährlichen Budget in Höhe von 134 Millionen Dollar. Heute hat die Finanzierung die 7000 Millionen-Dollar-Grenze pro Jahr übersprungen, also 50 mal mehr. Steuerkonzessionen kommen dabei noch hinzu (siehe Anhang 1 für Details und Quellen).

Die Ausgaben zeigen also einen sehr steilen Anstieg. Mit enormen Steuererleichterungen und Rettungsfonds, die jetzt im Spiel sind, ist es schwierig herauszufinden, um wie viel wir über der 7-Milliarden-Marke im Finanzjahr 2009 insgesamt liegen. Zum Beispiel beliefen sich die Kosten für Experimente zur Abscheidung von Kohlenstoff allein auf bis zu 3,4 Milliarden [6] im American Recovery and Reinvestment Act aus dem Jahr 2009. (Diese sind bei den 7 Milliarden noch nicht enthalten).

Der bedeutendste Punkt ist, dass nach einer Ausgabe von 30 Milliarden für reine wissenschaftliche Forschung noch niemand in der Lage ist, auch nur einen einzigen Beweis dafür vorzulegen, dass das anthropogene CO2 einen signifikanten Einfluss auf das Klima hat [7]

Falls Kohlenstoff nur ein geringer Mitspieler beim globalen Klima ist, wie es das Fehlen von Beweisen nahe legt, würden die Programme „Climate Change Science Program (CCSP)“ und das „Climate Change Technology Program(CCTP)“ sowie einige Anreize für grüne Belange und Steuererleichterungen wenige, geringe oder gar keine Grundlagen für ihre Existenz haben. Während die Vorhersage von Wetter und Klima kritisch ist und es andere gute Gründe gibt, alternative Energiequellen zu entwickeln – niemand kann behaupten, dass die Tausende Mitspieler, die diese Dollarmilliarden erhalten haben, irgendeinen realen Trieb verspüren zu „verkünden“, die Nichtsignifikanz der Rolle des Kohlenstoffs gefunden zu haben.

Ausgaben der US-Regierung von 1989 bis 2009

(Millionen Dollar)

Wissenschaft

Technologie

Hilfe für Ausland

Steuererleichterungen*

Insgesamt

32 508

36 136

  3 506

  6 919

79 069

*2003 bis 2008, ohne die Multimilliarden Dollar Finanzzuschüsse [financial recovery packages] vom Oktober 2008 und Februar 2009

 

Durch das Errichten von Handelsnetzwerken, Steuerkonzessionen und internationalen Bürokratien, bevor Beweise vorgelegt werden konnten, haben wir damit nicht sichergestellt, dass unser Verständnis von der Rolle des Kohlenstoffs in der Klimawissenschaft vorankommt, aber dass sich unser Verständnis jedes anderen Aspektes der Klimawissenschaft nicht in gleichem Maße verringert?

Die monopolistische Förderung erzeugt einen Sperrriegeleffekt, bei dem selbst über die unbedeutendsten Ergebnisse der AGW-Ergebnisse berichtet wird, und zwar wiederholt, mit Triumphgeschrei und mit absoluter Sicherheit, während jedwedes Ergebnis, das gegen AGW spricht, eine Lüge ist, von unqualifizierten Leuten stammt, ignoriert und verzögert wird. Die Begutachtung von AGW ist so unterfinanziert, dass es zum größten Teil unbezahlten Bloggern vorbehalten ist, die online Spenden von besorgten Bürgern sammeln. Diese Auditoren, oftmals Wissenschaftler im Ruhestand, stellen der Gesellschaft kostenlos einen wertvollen Service zur Verfügung, und doch werden sie im Gegenzug angegriffen, missbraucht und beleidigt.

Am Ende wird die Wahrheit herauskommen, aber wie viel Schaden wird angerichtet sein, während wir auf Freiwillige warten, um die Behauptungen der finanziell Überfütterten einer Begutachtung zu unterziehen?

Der verstohlene Masseneintritt von Bankiers und Händlern in den Hintergrund der wissenschaftlichen „Debatte“ stellen schwere Bedrohungen des wissenschaftlichen Prozesses dar.

Das „Milliarden-Dollar“-Versprechen für die Rohstoffmärkte – mit allem finanziellen Potential dafür, dass die menschlichen Emissionen von Kohlendioxid eine signifikante Rolle beim Klima spielen – kann man sicher mit einer Schlammdecke vergleichen, die über einer offenen leidenschaftslosen Analyse liegt.

All das bedeutet, dass wir große Extrasorgfalt aufwenden müssen, um uns nur auf die Beweise zu konzentrieren, die Wissenschaft, die empirischen Daten. Unlogik und Unvernunft umwölken eine Debatte, die ohnehin schon vollgeladen mit Verzerrungen ist. Wenn es so viele Anreize gibt, die Unklarheiten und Überkomplexitäten ermutigen, braucht die einfache Wahrheit viel Hilfe, um an die Spitze zu rücken. Aber wer fördert die Gegen-PR-Kampagne – wenn jetzt selbst Exxon aus dem Theater der Wissenschaft hinaus gebrüllt wurde? Es gibt kaum irgendwelche Gelder, um die natürlichen Gründe der Klimaänderungen zu erforschen, während für die Erforschung unnatürlicher Kräfte Milliarden über Billionen ausgegeben werden.

In dieser wissenschaftlichen Diskussion ist die eine Seite geknebelt, während die andere Seite über eine von der Regierung geförderte Medienkampagne verfügt.

 

30 Milliarden Dollar für eine monopolistische Wissenschaft

Ein Prozess ohne Verteidigung ist Betrug

Wirtschaft ohne Wettbewerb ist ein Monopol

Wissenschaft ohne Diskussion ist Propaganda

 

Der wissenschaftliche Prozess wurde deformiert. Eine Seite der Theorie erhielt Milliarden, während die andere Seite so ärmlich finanziert ist, dass die Überwachung dieser Forschung als Gemeinschaftsservice übrig bleibt, und zwar für Leute mit der Erfahrung von Experten, einer dicken Haut und Leidenschaft aus Passion. Eine Art von „sich eines Irrtums annehmen“.

Kann die Wissenschaft diesen Klammergriff von Politik und Großfinanz überleben?

Trotz der Milliarden schweren Dollarunterstützung wurden himmelschreiende Fehler gemacht. Besonders einer der Heuler [howler] schrieb die Geschichte um und kam damit jahrelang durch, bis ein engagierter, ohne Bezahlung arbeitender Untersucher den Betrug um den Hockeyschläger aufgedeckt hatte. Mittlerweile sind Agenturen wie das Goddard Institute of Space Studies GISS nicht in der Lage, Temperaturfühler zu installieren, die ihren eigenen Vorschriften genügen, weil die Arbeiter kaum ausgebildet und lediglich mit Gartenschippen und Spaten ausgerüstet sind. NOAA „adjustiert“ die Daten nach der Messung – offensichtlich, um die [Werte der] Sensoren zu kompensieren, die zu dicht an den Austrittsöffnungen von Lüftungsanlagen oder Parkplätzen liegen, und doch erhebt sich die Frage: Wenn das Klima das größte Problem ist, dem wir derzeit gegenüber stehen; und falls die Milliarden von Dollar gebraucht werden, warum können wir die Thermometer nicht ordnungsgemäß installieren?

Wie ernst ist es ihnen, ordentliche Daten zu erhalten? Oder sind sie nur darauf aus, die „richtigen“ Daten zu bekommen?

Die Gesamtzahl von Interessengruppen in der Klimawissenschaft ist viel größer als nur die Wissenschaftler, die echte Forschung betreiben. In der Unterstützung in Höhe von 30 Milliarden Dollar (Abbildung oben) für die CCSP sind noch nicht Arbeiten für grüne Technologien wie Verbesserung von Solarzellen oder das Verpressen eines harmlosen Gases in den Untergrund enthalten. Die Zuwendungen für Klimatechnologien liegen buchstäblich doppelt so hoch wie die involvierten Gelder und füttern einen viel größeren Pool von ehrbar aussehenden Leuten mit einem eindrucksvollen wissenschaftlichen Gehabe, die noch mehr Presseverlautbarungen ausgeben – wovon die meisten wenig mit grundlegender atmosphärischer Physik zu tun haben, sondern immer nur die Hypothese wiederholen, dass sich das Klima wegen der menschlichen Emissionen erwärmen wird. Mit anderen Worten: eine 30 Milliarden Dollar teure Jubeleinheit.

Eine große Menge einseitiger Forschung sorgt nicht für eine faire Diskussion

Die von der Regierung bezahlten Wissenschaftler müssen nicht unehrlich gegenüber der Wissenschaft sein, um verzerrte Ergebnisse zu liefern. Sie müssen einfach nur ihre Arbeit machen. Wenn wir 100 Leute beauftragen, nach Eidechsen im Dschungel zu suchen, würde es da jemanden überraschen, wenn er einen Elefanten auf der Ebene sieht? Wenige Leute werden bezahlt oder belohnt, um das IPCC oder damit verbundene Organisationen zu überwachen. Wo befindet sich die Abteilung für solare Einflüsse oder das Institut für natürliche Klimaänderungen?

Tausende Wissenschaftler erhielten Zuwendungen, um eine Verbindung zu finden zwischen menschlichen Kohlenstoffemissionen und dem Klima. Kaum jemand wurde dafür bezahlt, das Gegenteil zu finden. Man wende 30 Milliarden Dollar zur Beantwortung einer Frage auf, wie kann es dann sein, das brilliante, überzeugte Leute 800 Seiten von Verbindungen, Links, Vorhersagen, Projektionen und Szenarien nicht finden konnten? (Wobei wirklich erstaunlich ist, was sie noch nicht gefunden haben: empirische Beweise!)

Und Wissenschaftler sind menschlich, sie haben Hypotheken und Kinder. Falls das Geld von Exxon irgendeine Anziehungskraft hat, muss das Geld von der Regierung auch „ziehen“.

Ich kann es nicht besser ausdrücken als Al Gore in einem Film Eine unbequeme Wahrheit:

Es ist schwierig, einen Menschen dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht. – Upton Sinclair, 1935

Ironischerweise war es Al Gore selbst, der sicher stellte, dass das US Global Change Research Program (USGCRP) von 1993 bis 2000 so umfangreich gefördert worden ist. Wir haben Milliarden dafür aufgewendet, herausragende Gehirne auf einen Blickwinkel, ein Thema, einen Grund zu konzentrieren. Das ist eine Menge Holz!

 

Milliarden für „das Klima“, aber die Überwachung wird unbezahlten Freiwilligen überlassen

Die besten Beispiele für unbezahlte Begutachtungen sind die Arbeiten von unabhängigen Wissenschaftlern wie Steve McIntyre [8] und Anthony Watts. Hier haben wir die ironische Situation, in der erfahrene Arbeiter einen kostenlosen Beratungsservice zur Verfügung stellen, um der größten Einzelinstanz des Planeten zu „assistieren“.

Steve McIntyre hatte eine mathematische Ausbildung und arbeitete 30 Jahre lang in der Erkundung von Mineralien [9] (und hat niemals trotz gegenteiliger Behauptungen für die Ölindustrie gearbeitet). Hier folgt die Hockeyschlägerkurve aus dem Zustandsbericht des IPCC 2001:

Die in die Irre führende „Hockeyschläger“- kurve

McIntyre kam die Hockeyschlägerkurve verdächtig vor, weil sie ihn an einen Bre-X–Schwindel [?] erinnerte. Er ist im Ruhestand und arbeitete mit großem eigenen personellen Aufwand ohne jede Bezahlung [10].

McIntyre fand empörende Fehler [11] in der Hockeyschlägerkurve, einer Kurve, die jahrhundertelange historische Aufzeichnungen, archäologische Tatsachenbefunde und Daten von fast allen anderen Quellen außer unzuverlässigen „Baumringen“ einfach auslöschte. (Baumringe werden auch durch die Regenmenge und das Angebot an Nährstoffen beeinflusst). McIntyre fand, dass der von Michael Mann erzeugte und wiederholt im IPCC-Bericht 2001 zitierte Graph so schlecht konstruiert war, dass es möglich war, beliebige Daten als „Rauschen einzugeben und immer wieder ein Hockeyschläger herauskam. Eine wirkliche wissenschaftliche Begutachtung hätte darauf hinweisen müssen! Statt dessen stand der Graph drei oder vier Jahre lang im Mittelpunkt, bis ein entschlossenes skeptisches Individuum die Daten in Frage stellte (welche erst unangebracht, dann ungenau, dann inkonsistent waren) und die Statistiken genau unter die Lupe nahm.

McIntyre und Ross McKitrick fuhren fort, wissenschaftlich begutachtete Studien zu veröffentlichen [12, 13, 14]. Wegman und andere unabhängige Statistikexperten unterstützten McIntyre und McKitrick [15]. Craig Loehl untersuchte den gleichen Zeitraum mit anderen Proxies als Baumringen, und die Tatsache der Mittelalterlichen Warmzeit und der Kleinen Eiszeit stachen wieder heraus [16].

Die Kombination von 18 Reihen nicht aus Baumringen stammender Daten der letzten 2000 Jahre zeigt eindeutig die Mittelalterliche Warmzeit und die Kleine Eiszeit und demonstriert offenkundig, wie sehr der „Hockeyschläger“ in die Irre führt.

Ganz ähnlich hat Anthony Watts, ein ehemaliger Fernsehmeteorologe, eine Gruppe von 650 Freiwilligen rekrutiert, die mehr als 800 Temperatursensoren des United States Historical Climatological Network (USHCN) [18] fotografieren und beschreiben sollten – was eigentlich Aufgabe der NOAA [National Oceanic and Atmospheric Administration, die US-amerikanische Wetterbehörde] selbst wäre. Obwohl sie rund 4 Milliarden Dollar pro Jahr an Zuwendungen erhalten hatte, unternimmt die NOAA keine umfassenden Untersuchungen der Aufstellungsorte, um sicherzustellen, dass die Sensoren den erforderlichen Standards genügen.

Die Mehrzahl der Temperaturfühler der NOAA liegt neben Abluftschächten, Parkplätzen, Gebäuden und anderen künstlichen Wärmequellen.

Das sind keine kleinen Abweichungen der Messpunkte, die Anthonys Team von Freiwilligen fotografiert hat. Stationen für die Aufzeichnungen stehen neben Abluftschächten (Abbildung 5), über Asphalt von Parkplätzen, auf kochend heißen Dachspitzen aus Beton und neben geheizten Gebäuden.

Die Untersucher fanden, dass 89% aller bisher untersuchten Stationen nicht die vom Nationalen Wetterbüro selbst aufgestellten Standards erfüllten. [20]

Erneut sind die Mängel systematisch. Da als Sensor anstelle der Thermometer heute elektronische Messfühler die Daten anzeigen, wurden sie durch Leute installiert, die lediglich mit Kreuzhacken und Schaufeln ausgerüstet waren. Wurden frühere Sensoren im Freien über Gras und weit entfernt von einem Parkplatz errichtet, sind die neuen Messfühler elektronischer Natur, d. h. sie benötigen Stromversorgung aus Gebäuden. So war es keine Überraschung, dass sie an weniger idealen Stellen viel dichter am Gebäude aufgestellt wurden. Wer würde sich schon per Hand nur mit einem Spaten bewaffnet durch einen asphaltierten Parkplatz wühlen, um Platz für das Kabel zu schaffen?

Das Team bei der NOAA zieht es vor, „mathematische Anpassungen“ vorzunehmen, um die Nachteile der Lokalität und den „urbanen Wärmeinseleffekt“ auszugleichen. Wenn sie wirklich daran interessiert wären, die Daten korrekt zu ermitteln, hätten sie dann nicht einfach alle Stationen ausschließen sollen, die an nicht geeigneten Plätzen stehen, bis zu der Zeit, an der diese Ausgleichswerte ordnungsgemäß ermittelt sind? Hätten sie nicht für einen Gräben ziehenden Bagger zahlen sollen?

Das monopolistische Zuwendungs-„Raster“

Es muss sich nicht unbedingt um eine Verschwörung handeln. Es bedarf nicht irgendeines zentral gesteuerten Betrugs oder verdeckter Instruktionen. Stattdessen ist es das Fehlen von Zuwendungen an Alternativen, das ein Vakuum hinterlässt und systematisches Scheitern erzeugt. Die Kraft monopolistischer Förderung wirkt wie ein Rastersystem auf die Wissenschaft. Die Ergebnisse können in beide Richtungen weisen, aber die Förderung bedeutet, dass nur Ergebnisse von einer Seite der Gleichung „Zugkraft“ entfalten.

Gedanken, die die Rolle des Kohlenstoffs beim Klima in Frage stellen, werden mit einem feinen Kamm durch große Teams bezahlter Forscher durchgekämmt. Werden echte Irrtümer gefunden, werden sie laut und wiederholt verkündet; und falls es sich um irrelevante oder imaginäre Irrtümer handelt, werden diese auch verkündet, manchmal sogar mit noch mehr Lärm. Aber Gedanken, die die Rolle des Kohlenstoffs beim Klima stützen, sind Gegen­stand einer ganz anderen Art der Analyse. Die im AGW-Team schauen nach, ob sie die Rolle des Einflusses von Kohlenstoff unterschätzt haben, oder befinden sich in einem so offensichtlichen Irrtum, dass es „das Team“ in eine peinliche Lage bringt. Da es nur eine kleine Anzahl von Forschern gibt, die die natürlichen Gründe untersuchen, oder Leute, die von der Verteidigung nicht kohlenstoffbasierter Gründe  profitieren, gibt es niemanden, der a priori motiviert ist, intensiv nach nicht so offensichtlichen Fehlern zu suchen. Daher können die pro-AGW-Gedanken nur kurz eingehender untersucht werden sowie durch unbezahlte Ruheständler, auf Spenden angewiesene Blogger oder bei der Regierung angestellten Wissenschaftlern, die in anderen Bereichen arbeiten – wie z. B. Geologen, die allen Grund haben, skeptisch zu sein, die aber nicht notwendigerweise in, sagen wir, atmosphärischer Physik geübt sind.

Normalerweise ist das kein großes Problem, weil die Verlockung von Ruhm und Glück durch das kategorische Zersprengen eines weithin akzeptierten Gedankens für einige Leute attraktiv ist. In den meisten Bereichen der Wissenschaft werden diejenigen, die eine große Studie in Nature oder Science zerpflücken, plötzlich öfter zitiert; sind die Nächsten in der Reihe der Promotion und haben es leichter, Zuwendungen zu erhalten. Sie motivieren PhD-Studenten, ihnen zu helfen, werden eingeladen, auf mehr Tagungen zu sprechen und in der Programmfolge weiter nach oben gehievt. In der Klimawissenschaft dagegen besteht die Belohnung in persönlichen Angriffen auf Sites wie Desmog [21], ExxonSecrets [22] oder Sourcewatch [23]. Diese Sites wurden geschaffen, um jeden einzelnen Fehler zu jedem Thema aufzulisten, das sie bearbeitet haben, um  Verbindungen anzuzeigen, die sie vielleicht mit der Industrie fossiler Energie gehabt haben könnten, wobei es keinen Unterschied macht, vor wie langer Zeit die jeweilige Arbeit erschienen ist, oder wie prekär. Diese Kampfhunde-Sites greifen auch Ihre religiösen Überzeugungen an, sofern Sie welche haben. Roy Spencer beispielsweise wurde wiederholt angegriffen, weil er Christ ist (allerdings hat bisher niemand einen Grund dafür genannt, warum das seine Satellitendaten beeinflussen könnte).

Ironischerweise werden die „aktivistischen“ Websites von bezahlten Bloggern betrieben. DeSmog ist ein bezahlter Ableger einer professionellen PR-Gruppe Hoggan und Associates [24] (welche bezahlt werden, um Kunden wie die David Suzuki Foundation, ethische Gruppen sowie Kompanien, die alternative Energiequellen wie Wasserkraft, Wasserstoff und Brennstoffzellen verkaufen, zu fördern) [25]. ExxonSecrets wird durch Greenpeace unterstützt [26] (die von Spenden leben, um den Planet zu „retten“ und die vermutlich besser dran wären, wenn der Planet wirklich Rettung brauchen würde).

In den meisten wissenschaftlichen Bereichen sucht man nach Antworten und versucht nicht, nur eine Seite einer Hypothese zu beweisen. Es gibt einige wenige Forscher, die bezahlt werden, um die Hypothese der globalen Erwärmung zu widerlegen, und die meisten davon werden einer Untersuchung unterzogen und an den Pranger gestellt, als ob sie sich wie ein Politiker auf offizielle Ämter bewerben. So funktioniert Wissenschaft nicht, durch persönliche Angriffe!

Die Einschüchterung, Respektlosigkeit und die Ausgrenzung und Ächtung, denen Menschen ausgesetzt sind, die renitente Fragen stellen, gleicht einem Akt der Zensur. Nicht viele Bereiche der Wissenschaft haben Wissenschaftlern schmierige Sites gewidmet. Geld zählt!

Der angesehene MIT-Klimatologe Richard Lindzen [MIT = Massachusetts Institute for Technology. A. d. Übers.] hat sich gegen den Druck ausgesprochen, mit den Wölfen zu heulen, und beklagt sich über den Verlust großer Forscher:

Leider ist dies nur die Spitze eines niemals schmelzenden Eisbergs. In Europa wurde Henk Tennekes als Forschungsdirektor der Royal Dutch Meteorological Society abgelöst, nachdem er die wissenschaftlichen Belege für die globale Erwärmung in Frage gestellt hatte. Aksel Winn-Nielsen, der frühere Direktor der Weltorganisation für Meteorologie (WMO) bei den UN wurde von Bert Brolin, erster Leiter des IPCC, als ein Werkzeug der Kohleindustrie gebrandmarkt, nur weil er den Klimaalarmismus in Frage gestellt hatte. Die angesehenen italienischen Professoren Alfonso Sutera und Antonio Speranza verschwanden 1991 aus der Diskussion, offensichtlich weil man ihnen die Förderungen strich, weil sie Fragen gestellt hatten.

Die Kombination von fehlender finanzieller Unterstützung plus eine garantierte voreingenommene Prüfung sowie Drohungen mit dem Verlust des Arbeitsplatzes würde ausreichen, um viele zu entmutigen, die sich der umstrittenen Seite des Feldes annehmen oder ihre Meinung frei aussprechen, wenn sie den „Glauben“ in Frage stellen.

Schließlich fehlt es den Freiwilligen und isolierten Forschern an Infrastruktur. Obwohl die Theorie des Main Stream einigen Verifikationen unterzogen wird, stehen den meisten Wissenschaftlern, die Fehler finden, keine bezahlten Teams von PR-Experten zur Verfügung, um zahlreiche Presseerklärungen zu veröffentlichen, oder die Stunden und Monate aufzuwenden, die erforderlich sind, um Studien in Magazinen zu veröffentlichen. Das heißt, wenn ein Fehler gefunden wird, würden das nur wenige außerhalb der Industrie mitbekommen.

Die monopolistische Fördermaschine stellt sicher, dass selbst unwichtige oder falsche Analysen von Faktoren, die das Klima antreiben, länger unterstützt werden können als sie sollten, während die wirklichen Probleme  klein geredet, ignoriert und verzögert werden.

In einem so neuen Bereich wie der Klimawissenschaft können sich viele Dinge im Laufe von zehn Jahren ändern. Der Fortschritt zum Verständnis des planetarischen Klimas hat sich auf Schneckentempo verlangsamt.

Welche Motivation steckt dahinter zu beweisen, dass AGW falsch ist?

Wie viele Experten würden ihren Weg verlassen, um ihre eigene Expertise und Erfahrung weniger bedeutsam zu machen? Vor dem Hintergrund, dass die Förderung von dem Beweis abhängt, dass Kohlenstoff das Klima kontrolliert und damit die Klimawissenschaft selbst von entscheidender Bedeutung ist, ist es ein Kreislauf sich selbst sanktionierender Interessengruppen. Ja, schlaue Klimawissenschaftler können in anderen Bereichen beschäftigt werden. Aber wenn den Wählern plötzlich klar wird, dass Kohlenstoffemissionen nur eine geringe Rolle spielen und die Menschen nur einen kleinen Einfluss haben, würden Tausende Menschen bzgl. ihrer Arbeit etwas zu ändern haben, und Änderung ist schmerzhaft. In keiner Industrie ist es möglich, damit zu argumentieren, dass die Spezialisten es vorziehen würden, die halbe Förderung und den halben Status zu haben. Die meisten von ihnen würden auch bei der nächsten Gehaltserhöhung leer ausgehen, könnten ihre Arbeit verlieren oder zumindest Einiges von ihrer Kaufkraft. Sie bekommen nicht die verbesserte Ausrüstung, die sie sich wünschen, oder sie verlieren an Statur, weil, nun, Klimatologie „wichtig“ ist, aber da wir nicht das Wetter ändern können, laden wir ausgewiesene Experten nicht in unsere Komitees ein oder zu genauso vielen Konferenzen.

Man kann getrost davon ausgehen, dass die meisten Wissenschaftler ehrlich sind und hart arbeiten, aber selbst dann, wer würde sich darüber lustig machen, dass sie genauso viel Zeit und Mühe dafür aufwenden würden, AGW zu widerlegen, wie aufgewendet wird, AGW zu beweisen? Wenn ihre Reputation und ihre Förderung auf dem Spiel stehen, schwitzen und schaffen sie bis spät in die Nacht, um herauszufinden, warum sie recht haben und die anderen unrecht. Wettbewerb bringt auf beiden Seiten die Besten hervor.

Einige behaupten, dass sie dem wissenschaftlichen Prozess als solchen vertrauen, und dass sich die richtigen Antworten mit der Zeit herausstellen – was vermutlich stimmt. Aber wie John Maynard Keynes in seinem berühmten Ausspruch sagte: „Langfristig müssen wir alle sterben“. Es gibt bessere Wege, als auf das Nachleben zu warten. Verspätete Wissenschaft ist abgelehnte Wissenschaft.

Verlangsamung der Wissenschaft ist endlos fortgesetzte Propaganda [Science slowed is propaganda perpetuated].

 

Das „Wer-ist-schuld“-Spiel von Exxon ist ein ablenkender Nebenschauplatz

Viel Aufmerksamkeit in den Medien wurde schonungslos auf den Einfluss von „Big Oil“ konzentriert – aber die Zahlen rechnen sich nicht. Exxon Mobile wird nach wie vor verunglimpft [28], weil es angeblich über einen Zeitraum von etwa zehn Jahren um die 23 Millionen Dollar an Skeptiker des verstärkten Treibhauseffektes gezahlt haben soll. Das sind etwa 2 Millionen pro Jahr, verglichen mit den Ausgaben der US-Regierung in Höhe von etwa 2 Milliarden Dollar pro Jahr. Die gesamte von Exxon zur Verfügung gestellte Förderung beläuft sich auf weniger als ein Fünftausendstel des Wertes des Kohlenstoffhandels im Jahr 2008 allein.

Offensichtlich hat Exxon mit kaum 0,8% dessen, was die US-Regierung in jedem Jahr in die Klimaindustrie pumpt, die „Debatte sehr stark verzerrt“. (Falls das so sein sollte, ist es ein weiterer vernichtender Beweis dafür, wie effektiv die Förderung durch die Regierung wirklich ist).

Ein Beispiel zum Vergleich: Fast dreimal so viel wie das, was Exxon ins Spiel gebracht hatte, wurde in das Projekt zur Abscheidung von Kohlenstoff gesteckt [Big Sky Sequestration Project] [29], um gerade mal 0,1% des jährlich in den USA anfallenden Kohlendioxids in ein Loch im Boden zu pressen. Die australische Regierung ist der Förderung durch Exxon mit gerade mal einer Wohlfühlkampagne begegnet unter dem Motto „Denk ans Klima! Denk an die Änderung! [Think Climate! Think Change], (aber mach dir keine Gedanken über die Details)!

Hätte sich Exxon die gnadenlosen Angriffe vielleicht erspart, wenn es Geld sowohl pro als auch kontra AGW ausgegeben hätte?  Vermutlich nicht, denn es hat mehr als viermal so viel ausgegeben für das Global Climate and Energy Project (GCEP) in Stanford [32, 33]. Das schwere Verbrechen von Exxon besteht offenbar darin, den Skeptikern überhaupt zu irgendeiner Stimme zu verhelfen. Die Zensur muss vollständig bleiben.

Die Gifterei gegen Exxon kam von 2005 bis 2008 auf Hochtouren. Umweltgruppen drängten auf einen Boykott von Exxon wegen deren Ansichten zur globalen Erwärmung [34]. Die Firma wurde als ein Feind des Planeten abgestempelt [35]. James Hansen machte sich dafür stark, die Vorstandsmitglieder fossiler Energiefirmen wegen schwerer Verbrechen gegen die Menschlichkeit und gegen die Natur anzuklagen. Im nächsten Atemzug nannte er Exxon.

Selbst die Royal Society, die eigentlich für Wissenschaftler offen sein und auch für einwandfreie Standards der Logik stehen sollte, stimmte in den Chor gegen Exxon mit ein und bat die Firma inständig, sich bei ihren Äußerungen zu mäßigen [to censor its speech] [37]. Der beispiellose Brief dieser 350 Jahre alten Institution listete vielfältige Appelle an die Behörden, nannte aber keinen einzigen empirischen Beweis, der die Behauptung, dass der Zusammenhang zwischen Kohlenstoff und Temperatur jenseits aller Diskussionen und Zweifel sei, gestützt hätte. Die Royal Society behauptet von sich, dass sie Wissenschaftler unterstützt, aber wenn sie sich auf die trügerischen Aussagen der Behörden verlässt, wie kann sie dann jemals die ‚Whistle blowers’ unterstützen, die definitionsgemäß die „Autoritäten“ in Frage stellen?

Während Exxon wiederholt dafür angegriffen wurde, diese unbedeutende Menge an Geld aufgewendet zu haben, gibt es nur wenige, die jemals die Zuwendungen pro AGW aufgelistet haben. Wo sind die Fragen stellenden Journalisten? Geld, das vom Steuerzahler kommt, ist irgendwie Ansporn, während jedwedes Geld von Big Oil in einem freien Markt der Ideen automatisch ein „Verbrechen“ ist. Die Ironie liegt darin, dass das Geld des Steuerzahlers sofort gewaltsam abgeschöpft wird*, während Exxon das Geld durch Tausende freiwilliger Transaktionen verdienen muss.

*Das ist keine Übertreibung! Versuchen Sie mal, „keine Steuern zu zahlen“! Anm. im Original!

Diejenigen, die Exxon wegen deren 2 Millionen Dollar pro Jahr angreifen, ziehen die Aufmerksamkeit ungewollt von den wirklichen Machtspielchen ab und agieren als unbezahlte PR-Agenten für riesige Handelshäuser und große Banken, die es durchaus aushalten mit etwas Unbequemlichkeit durch Grüne [greenies] und Umweltaktivisten. An anderen Tagen werfen einige dieser Gruppen Steine auf die Bankiers.

Der Nebenschauplatz der Schuldzuweisung an Big Oil verschleiert die Wahrheit: Dass es nämlich wirklich nur darum geht, ob es irgendeinen Beweis gibt, und dass die Skeptiker eine Basisbewegung sind mit sehr angesehenen Wissenschaftlern und einer wachsenden Zahl unbezahlter Freiwilliger.

Noch größeres Geld kommt ins Spiel

Vorbemerkung des Übersetzers zu diesem Abschnitt: Der ganze Aufsatz datiert vom Juli 2009 und bezieht sich auf die USA. Damals war dort  der Traum vom großen Geld durch den Kohlenstoffhandel noch nicht ausgeträumt. Der folgende Abschnitt ist in dieser Hinsicht also überholt. Jedoch erscheint es sehr interessant, welche Träume selbst gestandene „Fachleute“ damals hatten und was davon übrig geblieben ist – vor dem Hintergrund, dass der Kohlenstoffhandel in den USA inzwischen nicht mehr existiert.

Finanzielle Rettungsaktionen und Steuernachlässe schlucken, was übrig ist.

Neue Provisionen der Förderung seit der Finanzkrise vom September 2008 sind in der obigen Tabelle nicht enthalten. Es ist schwierig, die Angaben strikt nach Finanzjahren zu trennen – und doch sind die Zahlen gigantisch und erreichen auf dem Graphen der Förderung potentiell die Skala sprengende Dimensionen.

Die Gesetzgebung zur finanziellen Erholung, die Präsident Bush am 3. Oktober 2008 unterzeichnet hatte [38] schloss das Gesetz zur Steigerung der Energieeffizienz und –ausweitung aus dem Jahr 2008 mit ein [39], in welchem etwa 17 Milliarden Dollar Steuergelder [40] für saubere Energien enthalten waren.

Dann, im Februar 2009, kam das 787 Milliarden Dollar teure Gesetz zur amerikanischen Erholung und Reinvestitionen [41], in dem um 110 Milliarden teure Investitionen [42] in saubere Energie enthalten sind. Viele dieser Investitionen trotzen einer einfachen Katalogisierung. Zum Beispiel ist die Forschung zu den alternativen Energien wertvoll, unabhängig davon, ob Kohlendioxid ein Problem ist oder nicht – obwohl es nicht so dringend ist. Aber Ausgaben in Höhe von 3,4 Milliarden Dollar zur Abscheidung von Kohlenstoff haben keine anderen Ziele oder Nutzen. Sie hängen zu 100% von der Hypothese ab, dass Kohlendioxid ein gefährlicher Luftverschmutzer ist.

Größer als die Große Regierung – Große Banken

Obwohl die Regierung während der letzten 20 Jahre etwa 70 Milliarden Dollar an Einfluss aufgewendet hat, verblasst diese Zahl im Vergleich mit der rasant wachsenden Kraft des Kohlenstoffhandels. Der Weltbank zufolge verdoppelte sich der Umsatz von 63 Milliarden im Jahre 2007 auf 126 Milliarden im Jahre 2008* [43].

Es ist keine Überraschung, dass die Banken das tun, was sie tun sollten: sie folgen dem Versprechen von Profiten und drängen daher die Regierungen, den Kohlenstoffhandel zu übernehmen [44, 45]. Obwohl sich Banken als gute und kooperierungswillige Mitbürger gerieren, finden sie den Gedanken einer nicht handelbaren Kohlenstoffsteuer als nicht ansprechend. Es könnte „dem Planeten helfen“, würde aber nicht ihren Bilanzen helfen.

Das Potential, das in einer völlig neuen verordneten Währung steckt, treibt Banken und Finanzinstitute „total unter eine Decke“ mit einer wissenschaftlichen Theorie [46].

Der 10-Billionen-Dollar-Gorilla in der Küche

Kommissionsmitglied Bart Chilton, Leiter des Beratungsgremiums für die Energie- und Umweltmärkte des Commodity Futures Trading Commission (CFTC), hat prognostiziert, dass der Kohlenstoffmarkt innerhalb der nächsten fünf Jahre jeden Markt marginalisieren wird, den seine Agentur derzeit reguliert: „Ich kann im Kohlenstoffhandel einen 2 Billionen-Dollar-Markt erkennen“ [47]. „Der größte Rohstoffmarkt der Welt“ [48]

Chilton entwirft folgende Perspektive: „Er würde nicht so groß sein wie einige der Finanzmärkte, aber er wäre größer als jeder echte Rohstoffmarkt“ [49].

Der in London ansässige Investitionsberater New Carbon Finance, der den Markt verfolgt, prognostiziert, dass der Kohlenstoffmarkt bis 2020 3 Billionen Dollar erreichen wird [50].

Richard L. Sandor, Vorsitzender und geschäftsführender Direktor von Climate Exchange Plc, dem die größte Kohlendioxidhandelsbörse gehört, sieht sogar einen noch größeren Markt:

„Wir werden einen weltweiten Markt bekommen, und Kohlenstoff wird eindeutig die größte nicht-kommerzielle Handelsware der Welt sein“. Er prognostiziert ein Handelsvolumen von insgesamt 10 Billionen Dollar pro Jahr [51].

Mit anderen Worten, der Kohlenstoffhandel wird größer als Öl, und selbst die Aussicht auf einen so massiven und lukrativen Markt repräsentiert ein wesentliches Interesse.

Wie Bart Chilton sagt: „Diese Angelegenheit ist so wichtig für unsere Wirtschaft und unsere Welt, dass wir es von Anfang an richtig anstellen müssen“.

Das „von Anfang an“ beginnt mit der Wissenschaft. Sollte es keinen Beweis dafür geben, dass wir [den Ausstoß von] Kohlenstoff einschränken müssen, gibt es keine Notwendigkeit, damit zu handeln.

 

Es steht und fällt mit dem Beweis

Selbst wenn die monopolistische Förderung die Wissenschaft beeinflusst wurde, sagt uns die Gesamtsumme Geldes, die an jede Seite gezahlt wurde, nichts darüber aus, ob sich das Klima der Erde wirklich erwärmt oder ob diese Erwärmung wegen des Kohlendioxids erfolgt.

Diese Studie möchte zum Ausdruck bringen, dass der wissenschaftliche Prozess (wie jedes menschliche Unternehmen) durch eine massiv einseitige Förderung durch Geld verzerrt werden kann.

Welchen Nutzen sollte das Geld haben, wenn es keinen Einfluss hätte?

Die Gefahr der Verzerrung im wissenschaftlichen Prozess bedeutet, dass wir uns strikt auf die Frage des Beweises konzentrieren müssen. Diese Studie ruft nach mehr Aufmerksamkeit, die man empirischen Beweisen zukommen lassen muss, und danach, Wege zu suchen, die Wissenschaft so zu motivieren, dass sie uns hilft zu entdecken, wie die Welt funktioniert, und zwar auf die bestmögliche und effizienteste Art und Weise.

Falls sich George Bush unwohl dabei gefühlt hatte zu unterschreiben, dass sich die USA an globalen Plänen zur Reduzierung von Kohlenstoffemissionen beteiligen würden, bestand sein vermutlich größter Fehler darin, nicht ein Institut zur Natürlichen Klimaänderung gegründet zu haben, das nach Beweisen für den Einfluss natürlicher Kräfte suchen sollte, und das die wissenschaftlichen Ergebnisse des IPCC sowie von Institutionen wie NOAA und NASA begutachten sollte.

Es fällt schwer sich vorzustellen, dass wir so viel Geld ausgeben, eine Hypothese zu untersuchen und kein Ergebnis erzielen. Monopolistische Förderung testet die Art und Weise, wie wir die Wissenschaft betreiben.

Es wird Zeit, ernsthaft die Wissenschaft zu begutachten, vor allem dann, wenn es um eine Wissenschaft geht, die riesige Regierungsprogramme und riesige Märkte rechtfertigen soll. Wer begutachtet das IPCC?

Alle Hervorhebungen, außer denen in eckigen Klammern, im Original!

Anhang

 

Autorin Joanne Nova

 

 

 Übersetzt von Chris Frey für EIKE 




Windkraft schädigt Tourismus auf Sylt. Interview mit Fürst Hohenlohe Präsident des Bundesverbandes Landschaftschutz

Aus der Reihe Strandgespräche: Fürst Hohenlohe Präsident des Bundesverbandes Landschaftsschutz im Gespräch mit Wolfgang Müller Ende März 2011. Den falschen Untertitel bitten wir zu entschuldigen.
Alle Videos von EIKE finden Sie hier




Wissenschaftlich erneut bestätigt: “Kein globaler Temperaturanstieg zwischen 1998 und 2008!

Die Studie von Kaufmann et al. aus dem Jahr 2011 (Beachte: Michael L. Mann ist Mitautor, aber nicht identisch mit jenem Michael E. Mann, der durch den Hockeyschläger berühmt wurde) wurde zunächst zurückgehalten, aber dank Dr. Benny Peiser haben wir hier eine Kopie.

Die PDF-Datei kann hier angeklickt werden: pnas.201102467

Auszug aus der Übersicht:

Vor dem Hintergrund des weithin bekannten Erwärmungseffektes wegen des zunehmenden Ausstoßes von Treibhausgasen war es unklar, warum die globale Temperatur zwischen 1998 und 2008 nicht gestiegen ist.

Und in der Schlussfolgerung:

Das Ergebnis, dass die jüngste Pause bei der Erwärmung hauptsächlich durch natürliche Faktoren ausgelöst worden ist, stellt keinen Widerspruch zur Hypothese dar: „Zum größten Teil ist die beobachtete Zunahme der globalen Mitteltemperatur seit Mitte des 20. Jahrhunderts sehr wahrscheinlich eine Folge der beobachteten zunehmenden Konzentrationen anthropogener Treibhausgase“ [14]

Von der GWPF:

Kommentar von Dr. David Whitehouse zur PNAS-Studie von Kaufmann et al.

Anthropogene Klimaänderung in Einklang bringen mit der beobachteten Temperatur von 1998 bis 2008

Es ist eine gute Nachricht, dass die Autoren erkannt haben, dass es seit 1998 keine globale Zunahme der Temperatur mehr gegeben hat. Obwohl diese Tatsache wieder und immer wieder in wissenschaftlich begutachteten Studien angesprochen wird, leugnen viele Kommentatoren diese Realität immer noch. Wir leben im wärmsten Jahrzehnt, seit vor 150 Jahren Aufzeichnungen mit Thermometern begannen, aber mindestens ein Jahrzehnt lang ist es nicht wärmer geworden.

Die Forscher haben ein veraltetes Computermodell optimiert und sich aus den Simulationen die Rosinen herausgepickt, die das gewünschte Ergebnis zeigen.  Die jüngsten Daten des Einflusses der Sonne auf die Erde haben sie nicht mit einbezogen, was ihre Ergebnisse lediglich von akademischem Interesse sein lässt.

Sie machen die zunehmende Kohleverbrennung in China verantwortlich, indem sie sagen, dass der Eintrag der Russpartikel in die Atmosphäre das Sonnenlicht reflektiert und sich der Planet dadurch abkühlt. Der Effekt von Aerosolen und deren Wechselwirkung mit anderen Partikeln der Luftverschmutzung stellt eine wesentliche Unsicherheit in Klimamodellen dar. Mehr noch, trotz der Kohleverbrennung in China deuten die Daten darauf hin, dass die Anzahl der Aerosole in der Atmosphäre während des letzten Jahrzehnts nicht zugenommen hat.

Die Forscher versuchen den Temperaturstillstand zwischen 1998 und 2008 zu erklären. Sie sagen, dass die globale Temperatur seitdem [seit 2008] zugenommen hat.

Dies ist irreführend. Es gab 2010 ein starkes El Nino-Ereignis (eine natürliche zyklische Erwärmung), aber selbst dadurch war die Temperatur nicht über die Werte von 1998 gestiegen. Tatsächlich hat sich der Stillstand auch 2010 und 2011 fortgesetzt, und es sieht so aus, als würde 2011 ein noch kühleres Jahr sein als alle zehn Jahre zuvor.

Das Optimieren von Computermodellen wie dieses beweist gar nichts. Der wirkliche Test findet mit den realen Daten statt. Die Temperatur hat seit über einem Jahrzehnt nicht mehr zugenommen. Daher gibt es keinerlei Vertrauen in die zugrunde liegenden wissenschaftlichen Hypothesen, dass die Welt bald beginnt, sich zu erwärmen, und zwar mit einer steileren Rate, um den Stillstand der letzten Dekade zu kompensieren.

Trotz allem, was die Autoren nach dem Herumspielen mit einem veralteten Modell sagen, gibt es bis jetzt immer noch keine überzeugende Erklärung für den Stillstand der globalen Erwärmung während des letzten Jahrzehnts.

Entweder haben anthropogene und natürliche Auswirkungen gemeinsam die Erwärmung zum Stillstand gebracht, die es wegen der Zunahme der Treibhausgase während des letzten Jahrzehnts gegeben haben müsste, oder wir haben die ‚Klimasensitivität’ bzgl. der Treibhausgase viel zu groß geschätzt.

Dies ist keine extreme oder ‚skeptische’ Position, aber sie repräsentiert die Verschiedenheit wissenschaftlicher Meinungen, die dem IPCC zugemeldet werden, und über die selten berichtet wird.

Dr David Whitehouse

The Global Warming Policy Foundation

e-mail: david.whitehouse@thegwpf.org

=============================================================

Anthony Watts fasst es so zusammen: „Wir wissen nicht, was los ist, aber das geben wir nicht zu!”

============================================================

Von Ryan Maue:  Beispiel einer Schlagzeile in den Mainstream Medien:

Verschmutzung in Asien sorgt für Stillstand bei der Erwärmung: Studie – von Reuters

blah blah blah — Zitat aus der Schlussfolgerung: „Die langzeitliche Erwärmung wird sich fortsetzen, wenn die Emissionen nicht reduziert werden”, sagte Peter Scott, Leiter des Klimamonitoring beim Britischen Met Office.

Nun, d.h. frei nach dem AC/DC Klassiker Hells Bells: "Egal, jeder Widerspruch zwecklos!"

Originalartikel hier: http://wattsupwiththat.com/2011/07/04/a-peer-reviewed-admission-that-global-surface-temperatures-did-not-rise-dr-david-whitehouse-on-the-pnas-paper-kaufmann-et-al-2011/

Weiterführender Link: Klimaforscher Pat Michaels zum Paper von Kaumann hier

Auszug daraus:

..The United Nations’ Intergovernmental Panel on Climate Change, which grants itself climate authority, states that our “Level of Scientific Understanding” of the (aerosol) effects range between “low” and “very low,” with a possible cooling between zero (none)  and a whopping 3.5 degrees (C) when the climate comes to equilibrium (which it will never do).  That’s a plenty large range from which to pick out a number to cancel about as much warming as you’d like…

Weitere Literatur dazu hier

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE