NACHRUF AUF PHILIPPSBURG

Ist Strahlung gefährlich?

Es ist keine Frage, dass radioaktive / ionisierende Strahlung auf die menschliche Gesundheit folgenschwere Auswirkungen haben kann. (sieh auch https://think-again.org/die-angst-vor-dem-atom/). Diese unbestreitbare Tatsache wird mit großem Erfolg als Totschlagargument gegen die Kernenergie eingesetzt.

Es gibt aber auch noch andere unbestreitbare Tatsache: Seit seiner Entstehung wird das irdische Leben auf natürliche Weise radioaktiv bestrahlt. Offensichtlich haben unsere Vorfahren und die meisten von uns selbst das doch gut überlebt.

Also was ist los: Ist Strahlung jetzt gefährlich oder nicht? Ja oder Nein?

 

Nicht unumstritten

In der Erde lagern seit ihrer Erschaffung radioaktive Materialien, zwar in winziger Konzentration, so doch in riesigen Massen. Die geben genug Strahlung und Hitze ab, um das Innere unseres Planeten flüssig zu halten. Da kocht also ein permanenter, nuklearer „Meltdown“.

In Artikeln zu dem Thema werden Sie vielleicht den Hinweis finden, diese Behauptung sei „umstritten“. Lassen Sie uns das genauer betrachten. Umstritten ist kein Begriff aus der Wissenschaft sondern aus der Politik. Eine Behauptung ist umstritten, wenn sie einerseits nicht ins Narrativ passt und andererseits nicht widerlegt werden kann. Deren Klassifizierung beginnt dann mit „wenig hilfreich“, dann kommt „nicht unumstritten“, dann „umstritten“, schließlich wird der Autor der Aussage selbst als „umstritten“ hingestellt.

Ein umstrittener Experte kann immer noch in Talkshows eingeladen werden, aber eben mit offiziellem Label „umstritten“. Dadurch wird dem Publikum im Studio signalisiert, nicht zu klatschen, wenn der Betreffende etwas sagt. Und die Zuschauer zu Hause wissen, dass der Mann in der Garderobe noch einen Aluhut hängen hat. Falls Sie in letzter Zeit Sendungen zum Thema Corona gesehen haben, dann wissen Sie, was gemeint ist.

 

Der ewige Meltdown

Fakt ist jedenfalls, dass die Erde fortlaufend 47 Terawatt an Wärme aus eigener Produktion in den Weltraum abstrahlt; das entspricht übrigens 0,1% der Leistung, die sie von der Sonne empfängt. Von diesen 47 TW stammen ein bis zwei Drittel aus radioaktivem Zerfall von Thorium 232, Uran 238 und Kalium 40. Diese radioaktive Hölle im Erdinneren soll aber möglichst unerwähnt bleiben, damit die Einmaligkeit der Gefahr durch Atomkraft nicht geschmälert wird. Deswegen ist das ein „umstrittenes“ Thema.

Der Rest der 47 TW Wärme kommt aus Deformationen der Erde. Die Anziehungskraft des Mondes, kombiniert mit der Erddrehung, erzeugt nämlich nicht nur Gezeiten auf den Ozeanen, sondern sie verformt die gesamte Erdkugel ein kleines bisschen. Das erzeugt Reibungswärme, ähnlich wie ein schwach aufgepumpter Autoreifen beim Rollen heiß wird.

Dazu kommt noch, dass Glut aus den Tagen der Schöpfung unseres Planeten übrig geblieben ist, als es damals sehr heiß zuging. Der Löwenanteil der Hitze aber stammt von der natürlichen Radioaktivität.

 

Radioaktivität

Entdeckt wurde Radioaktivität vor 120 Jahren, von französischen Forschern. Vielleicht ein Grund, warum unsere charmanten Nachbarn jenseits des Rheins eine entspanntere Haltung zur Kernkraft haben.

Um zu beurteilen, ob Strahlung aus Atomkraft eine realistische Gefahr darstellt, ja oder nein, muss man das Ganze quantitativ betrachten. Manchmal ist da von Becquerel (Bq) die Rede – benannt nach dem anderen Entdecker der Radioaktivität, neben Marie Curie. Bq ist die Einheit, mit der die Anzahl radioaktiver Zerfälle pro Sekunde gemessen wird; das ist allerdings kein geeignetes Maß, um eventuelle Gefährdung für Lebewesen zu beschreiben.

Die Wirkung ionisierender Strahlung auf unseren Körper wird „Dosis“ genannt und sie wird in der Einheit mSv (Milli-Sievert) gemessen. Es wäre nun wichtig zu wissen, ab wieviel mSv die Sache gefährlich wird.

Eines ist schon mal sicher: Die natürliche Dosis, die wir permanent abbekommen, kann nicht gefährlich sein. Wieviel ist das? In Deutschland sind das 2,0 mSv pro Jahr, der Durchschnitt weltweit liegt bei 2,4 mSv. Es gibt auch Gegenden mit wesentlich höheren Werten. Champion ist Ramsar im Iran mit 250 mSv jährlich, also hundert-mal mehr! Und all das kommt von Mutter Natur. Und nur zum Vergleich: Neben dem „neuen sicheren Einschluss“ der Reaktorruine in Tschernobyl werden jetzt 8,0 mSv gemessen. Das kommt allerdings nicht nur von Mutter Natur.

 

Was ist das Limit?

Gesetzliche Limits zum Schutz der Bevölkerung vor ionisierender Strahlung sind extrem konservativ. Über die natürliche Dosis von ca. 2 mSv  hinaus soll man nicht mehr als ein weiteres mSv pro Jahr abbekommen. Personen, die aus beruflichen Gründen ionisierender Strahlung ausgesetzt sind, wird aber bis zu 100 mSv zusätzlich zugemutet. Ist das nicht menschenverachtend?

Wir hatten ja gesehen, dass in Ramsar – aber nicht nur dort – die Menschen bei dreistelligen Dosiswerten ein glückliches und langes Leben führen. Angeblich soll an dem Ort, seit Langem als Heilbad beliebt, die Häufigkeit von Lungenkrebs unter dem globalen Durchschnitt liegen.

Ein Thema soll aber nicht unerwähnt bleiben: Uran verbirgt sich nicht immer tief im Inneren der Erde, sondern lagert manchmal nah an der Erdoberfläche. Der Stoff wäre an sich harmlos, würde er nicht zu Radium zerfallen, welches wiederum ein radioaktives Gas von sich gibt, genannt Radon. Es liefert den Hauptanteil an natürlicher Radioaktivität, der wir ausgesetzt sind. Das Zeug ist harmlos, solange es nicht seinen Weg durch Erdspalten in die Keller von Häusern findet und in die Atemluft.

Häuslebauer können sich diesbezüglich beraten lassen, oder aber dafür sorgen, dass Schlaf- und Wohnzimmer immer gut gelüftet sind – auch ohne Radon eine gute Idee.

 

Zahnarzt und Röntgen

Der Segen kommt aber nicht nur von unten, auch von oben werden wir bestrahlt. Aus dem All kommt die kosmische Strahlung, vor der uns zwar die Atmosphäre schützt, aber 0,3 mSv jährlich kommen noch durch. Diese Dosis steigt mit der Höhe rapide an, auf Jet-Niveau ist sie 30 mal so hoch; das ist ein Thema für Airline-Crews und, noch mehr, für Astronauten. All das beschert uns die Natur, ohne Atombombe und ohne Tschernobyl.

Welche Dosis bekommen wir aber von Menschenhand verpasst? Die altmodischen Röntgenapparate und die Computertomographie tragen zur Dosis bei. Ein volles Körper-CT bringt uns ca. 10 mSv ein, das wäre wie 14 Tage Urlaub in Ramsar, ein Brustbild bringt 0,1 mSv, und was der Zahnarzt macht, das können wir total vergessen.  Die Kernspintomographie – auch MRT genannt – trägt übrigens nichts zur Dosis bei, trotz des gefährlichen Namens. Das war mal eine vernünftige Erfindung der alten weißen Männer.

Und noch eine gute Nachricht: Strahlungen von Mikrowelle, TV oder Smartphone ionisieren nicht. Sie sind harmlos. Und auch das KKW nebenan liefert uns keine Dosis.

 

Die Welt, in der wir leben

Das also ist die Welt, in der wir leben:

Einerseits ist da die konstante, natürliche Radioaktivität im Hintergrund und andererseits gibt es lokale Quellen menschengemachter Strahlung, welcher die meisten von uns nur beim „Röntgen“ ausgesetzt sind.

Einerseits quillt da seit Äonen kontinuierlich das radioaktive Radon aus der Erde, andererseits wird behauptet, man könne Kindern und Kindeskindern keinen Planeten hinterlassen, wo in alten Salzstöcken radioaktiver Müll vergraben ist. Hallo, aufwachen! Man müsste unendlich viele Endlager mit radioaktivem Abfall füllen, wollte man dem natürlichen Radon Konkurrenz machen!

Kernkraft ist sicher und es ist die umweltfreundlichste Form der Stromerzeugung. Es gibt derzeit weltweit 440 KKWs, die Elektrizität ins Netz speisen, 55 weitere sind im Bau, 329 sind geplant. Es sieht nicht so aus, als hätte Deutschlands Kindergarten-Motto „Einer muss ja mal anfangen“ den Rest der Welt vom Atomausstieg überzeugt.

Es lohnt sich durch diese Liste zu scrollen; Sie werden sich vorkommen, wie einer der Insassen, die durch das vergitterte Fenster der Anstalt schauen und die sich gegenseitig bestätigen, dass da draußen alle verrückt sind.

Die Gefahr geht nicht vom Atom aus, sondern von einer Ideologie, die sich jeglicher Logik verschließt. Diese Ideologie beschallt uns mit dem idiotischen Schlachtruf „Jedes Becquerel mehr ist eine Becquerel zu viel“. Tatsächlich? In Oberbayern haben Sie ein paar Tausend Becquerel mehr als an der Nordsee. Warum hat man Tegernsee nicht längst evakuiert und die Bewohner in Bremen untergebracht?

 

Ideologie statt Logik

In was für eine Lage ist das Land manövriert worden! Die Tragödie ist nicht, dass es Aktivisten gibt, die mit griffigen Sprüchen die Bevölkerung ködern. Die Tragödie ist, dass Wissenschaft und Industrie kampflos zusahen, als besagte Aktivisten die totale ideologische Lufthoheit über Deutschland eroberten, und dass in der Folge dieses ideologischen Sieges das Land seither von einer Politik beherrscht wird, welche ihre Bürger mit Sprache und Logik auf Kindergarten-Niveau ruhig stellt, um im Hintergrund Entscheidungen zu treffen, die dem Land und damit allen Bürgern, großen Schaden zufügen.

Am 14. Mai 2020 wurden die Kühltürme des Atomkraftwerks Philippsburg gesprengt . In Sekunden waren damit die Quelle eines Drittels des Baden-Württembergischen Strombedarfs für immer zerstört und industrielle Werte in Milliardenhöhe vernichtet.Und so manch einer, der die Rechnung durch überhöhte Strompreise und extreme Steuern demnächst bezahlen muss, hat dabei laut oder im Stillen gejubelt.

Dieser Artikel erschien zuerst bei www.think-again.orgund im Buch „Grün und Dumm“




Verbesserungs­würdig: Über fehler­hafte Ansätze für eine breitenab­hängige Global­temperatur

Zitat:

Here’s how the incident solar flux changes with time-of-day and latitude. This should not be controversial, since it is just based upon geometry. Even though I only do model calculations at latitudes of 5, 15, 25, 35, 45, 55, 65, 75, and 85 deg. (north and south), the global, 24-hr average incident solar flux is very close to simply 1,370 divided by 4, which is the ratio of the surface areas of a circle and a sphere having the same radius…”

Der neutrale GOOGLE-Übersetzer sagt: Hier erfahren Sie, wie sich der einfallende Sonnenfluss mit der Tageszeit und dem Breitengrad ändert. Dies sollte nicht kontrovers sein, da es nur auf Geometrie basiert. Obwohl ich nur Modellberechnungen in Breiten von 5, 15, 25, 35, 45, 55, 65, 75 und 85 Grad mache. (Nord und Süd) liegt der globale, durchschnittlich einfallende Sonnenfluss von 24 Stunden sehr nahe bei 1.370 geteilt durch 4, was dem Verhältnis der Oberflächen eines Kreises und einer Kugel mit demselben Radius entspricht…

Die Ableitung einer breitenabhängigen Tagestemperatur wäre tatsächlich ein guter Anfang für ein hemisphärisches Tag&Nacht-Verständnis gewesen, aber der Rückfall auf einen speichergestützten 24h-Verlauf zerstört diesen Ansatz sofort wieder, wie die nachfolgenden Abbildungen von Dr. Spencer nachweisen:

Abbildungen aus “A Simple ‘No Greenhouse Effect’ Model of Day/Night Temperatures at Different Latitudes“ von Dr. Roy Spencer Links: Einfallende solare Strahlungsleistung von 5° bis 85° geographischer Breite Rechts: 24h-Temperaturverlauf: Im Tagesverlauf wird eingestrahlte Energie über einen speicherfähigen „surface layer responding to heating“ von 0.1 m Tiefe abgezweigt und dem nächtlichen Temperaturverlauf zugerechnet

Das von Dr. Spencer vorgestellte Modell stellt implizit den Temperaturverlauf einer breitenabhängigen Strahlungsbilanz gegen eine Umgebungstemperatur von 0 Kelvin dar, dessen pauschale „Mittelerde“-Anwendung im konventionellen Stefan-Boltzmann-Ansatz zu einer theoretischen Globaltemperatur von (-18°C) führt. Eine breitenabhängige Berechnung der solaren Strahlungsleistung und eine Vorratsspeicherung für die Nachtstunden führt in dem Modell von Dr. Spencer dann zu einer Spreizung der Temperaturen zwischen etwa 60°F (=15,55°C) und etwa -100°F (= -73,33°C). Insbesondere kann Dr. Spencer damit aber die Temperaturgenese auf unserer Erde nicht korrekt erklären, Zitat letzter Absatz aus diesem Artikel:

I hope this will help convince some who are still open-minded on this subject that even intense tropical sunshine cannot explain real-world tropical temperatures. The atmospheric greenhouse effect must also be included. The temperature (of anything) is not determined by the rate of energy input (say, the intensity of sunlight, or how fast your car engine burns gas); it is the result of a balance between energy gain and energy loss. The greenhouse effect reduces the rate of energy loss at the surface, thus causing higher temperatures then if it did not exist.”

Der neutrale GOOGLE-Übersetzer sagt: Ich hoffe, dies wird dazu beitragen, einige, die in diesem Bereich noch aufgeschlossen sind, davon zu überzeugen, dass selbst intensiver tropischer Sonnenschein die realen tropischen Temperaturen nicht erklären kann. Der atmosphärische Treibhauseffekt muss ebenfalls berücksichtigt werden. Die Temperatur (von irgendetwas) wird nicht durch die Energieeintragsrate bestimmt (z. B. die Intensität des Sonnenlichts oder wie schnell Ihr Automotor Gas verbrennt); Es ist das Ergebnis eines Gleichgewichts zwischen Energiegewinn und Energieverlust. Der Treibhauseffekt verringert die Energieverlustrate an der Oberfläche und verursacht somit höhere Temperaturen als wenn sie nicht vorhanden wären.

Schade, da hatte Dr. Roy Spencer die breitenabhängige spezifische solare Strahlungsleistung richtig berechnet. Aber anstatt daraus den gleichzeitigen Verlauf einer S-B-Gleichgewichtstemperatur abzuleiten und mit der Realität abzugleichen, negiert er diese zwingende Gleichzeitigkeit aus dem S-B-Gesetz und leitet aus seinem Speichermodell die Vermutung für einen „isolierenden“ atmosphärischen THE ab. Das Problem bei diesem THE ist nur, dass noch niemals irgendein Körper ohne zusätzliche Energiezufuhr allein durch eine Behinderung seines Energieverlustes WÄRMER geworden ist. Ein solcher Körper wird durch Isolation nämlich nicht WÄRMER, sondern kühlt nur entsprechend LANGSAMER aus. Und die spezifische solare Strahlungsleistung bei vertikalem Einfall, wie sie von Dr. Spencer richtig dargestellt worden war, beträgt zwischen den Wendekreisen ohne Albedo maximal (S0=1.367W/m²) und entspricht einer S-B-Gleichgewichtstemperatur von etwa 120°C – und kann daher sehr wohl die Temperatur in den Tropen erklären.

Dr. Spencer bleibt ausgerechnet die Erklärung schuldig, warum er in seinem Modell die zwingende Gleichzeitigkeit zwischen Temperatur und spezifischer Strahlungsleistung aus dem Stefan-Boltzmann-Gesetz aufhebt und einen wesentlichen Teil der tagseitigen hemisphärischen Strahlungsleistung willkürlich auf die Nachtstunden umleitet.

Die Berechnungen von Dr. Spencer wurden aus Vereinfachungsgründen im Äquinoktium durchgeführt. Aus der spezifischen solaren Strahlungsleistung werden aber hin und wieder auch breitenabhängige tagesdurchschnittliche „spezifische“ 24h-„Mittelerde“-Strahlungsleistungen für den gesamten Jahresverlauf abgeleitet:

Abbildung: 24h-gemittelte tägliche „spezifische“ Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr Links: Abbildung 22b „solar radiation reaching the Earth’s surface“ aus Kramm et al. (2017) „Using Earth’s Moon as a Testbed for Quantifying the Effect of the Terrestrial Atmosphere” (Creative Commons License CC BY 4.0) Rechts: Abbildung 2.6 von Dennis L. Hartmann für die Außengrenze der Atmosphäre aus “Global Physical Climatology”, Chapter 2 Volume 56 in the INTERNATIONAL GEOPHYSICS SERIES, ACADEMIC PRESS 1994

Bis auf eine fehlende Darstellung der „0W/m²“-Linie auf den Polkappen bei Kramm et al. (2017) erscheinen beide Darstellungen zunächst einmal völlig gleich. Die unterschiedlichen Werte für die Maximaleinstrahlung am Pol der jeweiligen Sommerhemisphäre zeigen sogar, dass in beide Berechnungen die Elliptizität der Erdbahn eingegangen ist. In beiden Graphiken fallen am Nordpol über 500 W/m² und am Südpol über 550 W/m² an; denn der Südsommer fällt auf die sonnennahe Seite der Erdbahn (Perihel), während die Sonne im Nordsommer auf deren entfernter Seite (Abhel) steht. Die Übereinstimmung beider Abbildungen ist aber insofern höchst verwunderlich, weil Kramm et al. (2017) eindeutig von „solar radiation reaching the Earth’s surface“ sprechen, während Dennis L. Hartmann (1994) die „Mittlere tägliche Einstrahlung an der Außengrenze der Atmosphäre“ darstellt. Schließlich machen zwischen der Außengrenze der Atmosphäre und der Erdoberfläche die Wolken bereits etwa 70 Prozent der Erd-Albedo von etwa 0,3 aus, und eine dauerhafte Eisbedeckung dürfte sich eher positiv auf die örtliche Albedo auswirken. Ohne den verantwortlichen Lead-Autor unnötig in Aufregung versetzen zu wollen, sollten sich Kramm et al. ihre Abbildung 22b also unbedingt noch einmal genauer anschauen; denn hier wäre dringend ein wissenschaftliches Korrigendum anzuraten.

Tatsächlich ist in beiden oben abgebildeten Graphiken von Kramm et al. (2017) und Dennis L. Hartmann (1994) der Jahresverlauf für die beiden Pole auf +/-90° nördlicher und südlicher geographischer Breite richtig; denn hier kann die spezifische Strahlungsleistung über den 24h-Tag als konstant angesehen werden. Alle anderen Verläufe stellen über 24 Stunden gemittelte Strahlungswerte dar, die umso weniger mit einer originären spezifischen Strahlungsleistung der Sonne zu tun haben, je weiter sich die betreffende Ortslage von einem der geographischen Pole entfernt. Solche gemittelten Strahlungswerte stellen keine originäre spezifische Strahlungsleistung dar und dürfen daher auch nicht mit dem Stefan-Boltzmann-Gesetz in ein Temperaturäquivalent umgerechnet werden. Trotzdem wird manchmal ein solcher Durchschnitt fälschlich in eine S-B-Gleichgewichtstemperatur umgerechnet. In der Veröffentlichung „Using Earth’s Moon as a Testbed for Quantifying the Effect of the Terrestrial Atmosphere” von Gerhard Kramm et al. (2017) finden wir in Abbildung 22a eine solche Darstellung:

Abbildungen 22 a und b aus Kramm et al. (2017)

Beschreibung: “Daily mean values of (a) slab temperature; (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1).”

(Creative Commons License CC BY 4.0)

Anmerkung: Die maximale spezifische Strahlungsleistung unter dem Zenitwinkel von 66,6° zur Sommersonnenwende am jeweiligen Pol der Sommerhemisphäre (abgeleitet von der Solarkonstanten S0=1.367W/m² ohne Erdbahn-Elliptizität) beträgt:

Maximale spez. Strahlungsleistung am Sommerpol ohne Albedo: 544 W/m², entsprechend einer S-B-Gleichgewichtstemperatur von 40°C oder 313K.

Maximale spez. Strahlungsleistung am Sommerpol bei mittlerer Albedo: 374 W/m², entsprechend einer S-B-Gleichgewichtstemperatur von 12°C oder 285K.

In der Abbildung 22a von Kramm et al. (2017) weist die rote Farbgebung nun eine Maximaltemperatur zwischen 280K und 300K für den jeweiligen Pol der Sommerhemisphäre aus. Diese Temperaturspanne entspricht jedoch nicht der entsprechenden spezifischen Strahlungsleistung aus Abbildung 22b mit mehr als 500W/m² (Nordpol) respektive mehr als 550W/m² (Südpol). Denn damit müssten die Ortstemperaturen an den Polen der Sommerhemisphäre in Abbildung 22a deutlich mehr als 300K betragen. Daher können die Temperaturen in Abbildung 22a eindeutig nicht aus den Strahlungswerten von Abbildung 22b hergeleitet worden sein. Sicherlich wird der verantwortliche Lead-Autor diesen Widerspruch mit dem ihm eigenen Charme durch eine plausible physikalische Erklärung auflösen können, die seinen hohen wissenschaftlichen Ansprüchen gerecht wird. Bis dahin bleibt nur der hinreichende Verdacht, dass beim Datensatz für die Strahlungsleistung in Abbildung 22b eine Verwechslung mit den Grunddaten @TOA vorliegen muss.

In Teil 2 meiner Analyse der Thesen und Antithesen für einen natürlichen atmosphärischen Treibhauseffekt hatte ich zu der Abbildung 22a von Kramm et al. (2017) angemerkt, Zitat:

Kramm et al. (2017) stellen in Abbildung 22 den breitenabhängigen 24-Stunden-Durchschnitt der solaren Einstrahlung und dessen S-B-Temperaturäquivalent dar. Die Problematik einer solchen 24-stundendurchschnittlichen solaren Strahlungsleistung hatte ich in meinem EIKE-Artikel „Noch ein paar Fragen zum ‚natürlichen‘ atmosphärischen Treibhauseffekt“ vom 23. Juni 2017 anhand einer vergleichbaren Abbildung von Dennis L. Hartmann ausführlich erläutert; insbesondere lässt ein solcher Strahlungsdurchschnitt keinesfalls die Berechnung eines S-B-Temperaturäquivalentes zu…“

Es handelt sich bei den dargestellten Werten also gar nicht um physikalisch korrekte spezifische Strahlungsleistungen, aus denen sich mittels Stefan-Boltzmann-Gesetz eine rechnerische Gleichgewichtstemperatur ermitteln ließe, sondern nur um mathematisch berechnete 24h-Mittelwerte. Zur Ermittlung eines globalen Jahresverlaufs des maximalen S-B-Temperaturäquivalentes müssen wir vielmehr das breitenabhängige Maximum der spezifischen solaren Strahlungsleistung betrachten:

Abbildung: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium

Spez. Strahlungsleistung: MAX (Si) @24h-Tag mit (Si = 1.367W/m² * (1-ALBEDO) * cos PHIi)
und (PHIi = örtlicher Zenitwinkel)

Farbdarstellung: 0 [W/m²] (schwarz) – 940 [W/m²] (rot)

Linke Skala: Grad geographische Breite (Süd = „-“)

Skala oben: Datum ab Herbstäquinoktium

Anmerkung: Ein vergleichbarer geographischer Verlauf ergibt sich ebenfalls für das daraus abgeleitete S-B-Temperaturäquivalent (SBT) zwischen (-273°C=schwarz) und (86°C=rot)

Dabei übertrifft das temperaturwirksame solare Sommermaximum am Nordpol (374 W/m² @ 90°N) sogar das solare Winterminimum in unseren Breiten (270 W/m² @ 50°N). Umgekehrt ist aber die maximale solare Sommereinstrahlung in unseren Breiten in etwa mit der Sonneneinstrahlung am nördlichen Wendekreis bei äquatorialem Sonnenstand vergleichbar.

Damit fällt der jeweilige Pol der Sommerhemisphäre als klimatischer „Hotspot“ schon mal aus, wie die nachstehende Abbildung beweist:

Abbildung: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Deutlich wird aus dieser Abbildung, dass die Temperaturen von Kramm et al. (2017) niemals aus einer breitenabhängigen maximalen spezifischen Strahlungsleistung der Sonne abgeleitet worden sein können. Also ist der jeweilige Pol der Sommerhemisphäre mit einer maximalen temperaturwirksamen spezifischen Strahlungsleistung von 374 W/m² und einer S-B-Gleichgewichtstemperatur von 12°C auch kein klimatischer „Hotspot“. Vielmehr verläuft die maximale temperaturwirksame spezifische Strahlungsleistung von 940 W/m² mit einem S-B-Temperaturäquivalent von 86°C am Fußpunkt des jahreszeitlich veränderlichen vertikalen Sonnenstandes zwischen den geographischen Breitenkreisen, was die nachfolgende Abbildung nochmals verdeutlicht:

Abbildung: Tentative Gegenüberstellung der Beleuchtungsklimazonen mit dem Jahresverlauf der maximalen solaren Strahlungsleistung im Sommerhalbjahr (Südsommer linke Hälfte und Nordsommer rechte Hälfte) Overlays rechts und links: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License) Darunter: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium

 

Aus der vorstehenden Abbildung ist klar ersichtlich, dass aus den Strahlungs-Hotspots auf der Polkalotte der jeweiligen Sommerhemisphäre nach Kramm et al. (2017) und Dennis L. Hartmann (1994) kein entsprechender Klima-Hotspot resultieren kann. Auch ein „Temperatur-Hotspot“ analog zu Kramm et al. (2017) ist aus dem Abgleich zwischen Beleuchtungsklimazonen und dem Jahresverlauf der maximalen solaren Strahlungsleistung im arktischen und antarktischen Hochsommer beim besten Willen nicht zu erkennen. Die Polkalotten werden vielmehr eindeutig der solaren Polarzone mit extremen jahreszeitlichen Schwankungen der Tageslänge und der Sonneneinstrahlung zugeordnet. Und das absolute Maximum der spezifischen solaren Strahlungsleistung liegt immer noch zwischen den geographischen Wendekreisen. Die polaren Strahlungs-Hotspots sind bei einem 24h-Durchschnitt vielmehr der örtlichen Tageslänge auf der jeweiligen Sommerhemisphäre und damit der längeren Einstrahlungsdauer geschuldet. Umgekehrt wird bei einem 24h-Durchschnitt das Maximum der breitenabhängigen temperaturwirksamen spezifischen solaren Strahlungsleistung in der Äquatorregion aufgrund der wesentlich kürzeren Tageslänge zwischen Sonnenauf- und -untergang auf weniger als die Hälfte reduziert, obwohl diese Region nachweislich den „Klimamotor“ unserer Erde antreibt.

Der Vollständigkeit halber sei abschließend noch darauf hingewiesen, dass die Sonnenscheindauer in höheren geographischen Breiten der Sommerhemisphäre aufgrund der Albedo-Rückkopplung eine wesentliche Rolle bei der langfristigen Klimaentwicklung spielt, wie das bereits Köppen und Wegener in ihrem Buch „Die Klimate der geologischen Vorzeit“ (Bornträger 1924) gezeigt hatten. Eine einfache Hypothese für eine solche Albedo-Rückkopplung wird hier beschrieben.

 




Die Pilze von Tschernobyl

Wer etwas nachdenkt, kann diesen Unsinn sofort erkennen: Wurden doch allein zig Tonnen Plutonium bei den Kernwaffentests in die Atmosphäre freigesetzt. Aber dieser Irrglaube hält bis heute an. So ist doch inzwischen das Hauptargument gegen die Kernenergie der böse „Atommüll“, vor dem die Menschheit für Millionen Jahre geschützt werden muß. Genau dieses Scheinargument wird aus der Halbwertszeit von Plutonium – ganz nebenbei, ein willkommener Energiespender, viel zu schade zum verbuddeln – hergeleitet.

Es gibt aber noch einen weiteren Einwand gegen eine übertriebene Strahlenangst. Wäre die Natur so empfindlich, gäbe es uns gar nicht. Radioaktiver Zerfall geht immer nur in eine Richtung. Mit jedem Zerfall, bei dem Strahlung ausgesendet wird, ist dieses Atom unwiederbringlich verschwunden. Deshalb war in grauer Vorzeit die Strahlenbelastung wesentlich höher als heute (z. B. der Anteil an U235 im Natururan und seine Zerfallsketten). Das Leben auf der Erde mußte deshalb von Anbeginn an „Selbstheilungsstrategien“ entwickeln, um sich überhaupt auf eine höhere Stufe entwickeln zu können. Erdgeschichtlich standen am Anfang die Pilze (sie sind weder Pflanzen noch Tiere), die das noch völlig karge Land vor Milliarden Jahren eroberten. Sie konnten lebenswichtige Mineralien gewinnen. Eine Eigenschaft, die sie bis heute auszeichnet. Allerdings wurden dadurch auch radioaktive Stoffe aufgenommen, mit denen sie umgehen mußten.

Pilze und Bakterien

Insofern ist es nicht verwunderlich, daß schon 2008 in dem Trümmerfeld des Reaktors von Tschernobyl Pilze gefunden wurden. Sie siedelten teilweise auf den mit Brennstoffresten verschmutzen Graphitblöcken. Wohlgemerkt, mitten im Atommüll. Man hat schon lange den Verdacht, daß Pilze enorm widerstandsfähig gegenüber ionisierender Strahlung sind. So findet man in den Schichten der frühen Kreidezeit viele melaninhaltige Pilzsporen. In einer erdgeschichtlichen Periode, in der viele Pflanzen- und Tierarten schlagartig verschwunden sind. Man führt dies auf starke kosmische Strahlung durch ein astronomisches Ereignis bzw. einen Nulldurchgang des Erdmagnetfeldes zurück. Es gab auch Überlegungen, Pilze zur Renaturierung stark verseuchter Gebiete einzusetzen, da sie auch radioaktive Stoffe begierig aufnehmen und aus ihrer Umgebung herauslösen.

In einer Studie von Dadachova und Casadevall ergibt sich noch ein ganz anderer Effekt: Alles deutet darauf hin, daß manche Pilze durch ihr Melanin ionisierende Strahlung zur Energieumwandlung nutzen können, analog dem Chlorophyll bei Pflanzen. Die Studien gehen auf Untersuchungen über den Pilz Aspergillus Niger aus dem ≫Evolution Canyon≪ in Israel zurück. Dort hat man auf der Südseite eine 200%-800% höhere Sonneneinstrahlung als auf dessen Nordseite. Folglich ist der Melaningehalt bei den Pilzen auf der Südseite entsprechend höher. Diese Pilze wuchsen bei intensiver UV-Bestrahlung wesentlich besser. Wenn man diese Pilze einer Strahlung aus einer Co60 – Quelle von bis zu 4000 Gy aussetzte, wuchsen sie ebenfalls schneller. Dies deutet daraufhin, daß sie nicht nur nicht geschädigt werden durch so hohe Strahlung, sondern viel mehr diese Strahlungsenergie nutzbringend über ihr Melanin umwandeln können. Inzwischen hat man nicht nur Bakterien und Pilze in der Reaktorruine in Tschernobyl gefunden, sondern auch im Kühlwasser von Reaktoren. Dort sind sie ebenfalls extremer Strahlung ausgesetzt. Bisheriger Spitzenreiter bei den Bakterien ist Deinococcus radiodurans mit einer Todesrate von 10% (letale Dosis, LD10) erst bei einer Dosis von 15000 Gy. Zum Glück ist dies bei Bakterien eine Ausnahme. Üblicherweise setzt man zur Haltbarmachung von Lebensmitteln γ-Strahlen mit einer Dosis von 1000 Gy ein. Escherichia coli Bakterien haben beispielsweise eine LD10 schon bei 700 Gy. Ganz anders sieht es bei melaninhaltigen Pilzen aus. Viele dieser Hefe- oder Schimmelpilze haben eine LD10 erst bei 5000 Gy.

Mit den „Tschernobyl-Pilzen“ wurden weitere, verblüffende Experimente durchgeführt. Sie wurden unterschiedlichen ionisierenden Strahlen durch Quellen aus P32 und Cd109ausgesetzt. Bei all diesen Experimenten konnte festgestellt werden, daß sie bei gerichteten Quellen zumeist bevorzugt in diese Richtungen wuchsen – ähnlich wie Pflanzen, die sich nach dem Licht ausrichten. Harte Strahler (Cs137) wirkten positiver als weiche (Sn121). Pilze, die aus einer stark strahlenden Umgebung stammen, reagierten stärker als Pilze aus unbelasteten Regionen. Man kann also von einer Gewöhnung an die Strahlung ausgehen (“radioadaptive response”).

In und auf der internationalen Raumstation (ISS) gibt es zahlreiche eingeschleppte Pilze. Die kosmische Strahlung ist dort natürlich sehr viel geringer (etwa 0,04 Gy pro Jahr), aber gleichwohl sind Pilze mit höherem Melaningehalt überproportional vertreten. Keinesfalls jedoch, sind sie durch die jahrelange kosmische Strahlung abgetötet worden.

Nutzung durch Melanin

Eine Hypothese geht davon aus, daß das Melanin selbst auf ionisierende Strahlung reagiert und sich anpaßt. Dies würde auch den „Lerneffekt“ durch längere Bestrahlung erklären. Es sind jedenfalls eindeutige Veränderungen nach der Bestrahlung in den ESR (electron spin resonance signal) und HPLC (high performance liquid chromatographie) Meßwerten feststellbar. Dies betrifft z. B. vierfach höhere Werte an NADH (Nicotinamid-Adenin-Dinukleotid-Hydrogen), einem besonders starken Antioxidationsmittel. Ohne hier weiter auf Details einzugehen, kann man festhalten, daß bei einer 500-fachen Strahlendosis gegenüber der Hintergrundstrahlung, bei verschiedenen Pilzen ein wesentlich schnelleres Wachstum mit mehr Kolonien und größerer Trockenmasse eintrat. Stark vereinfacht gesagt, scheint das Melanin ionisierende Strahlung zu nutzen, um CO2 in Biomasse zu verwandeln. Ferner schützt das Melanin die anderen Bauteile einer Zelle vor Strahlenschäden.

Der Kampf mit den Einheiten

Diese Untersuchungen und Erkenntnisse sind für einen Kerntechniker eher ein Randgebiet. Sie sind mit Sicherheit wichtiger für Biologen und Strahlenmediziner. Allerdings kann man sich damit eine gewisse Skepsis gegenüber dem Zahlenkrieg von „Atomkraftgegnern“ bezüglich „Atommüll“ etc. erhalten. Abschließend deshalb noch ein paar Worte zu den Einheiten und den Größenordnungen. Die Einheit Gray [Gy] beschreibt die pro Masse absorbierte Energie. 1 Gy entspricht einem Joule pro kg in SI-Einheiten. Früher verwendete man die Einheit [rad]. Wobei 100 rad einem Gy entsprechen. Eine sehr geringe Menge Energie. Sind doch rund 4200 J nötig, um 1kg Wasser um 1°C zu erwärmen. Will man die biologische Wirksamkeit unterschiedlicher Strahlung erfassen (z. B. Alphateilchen werden mit einem Strahlungs-Wichtungsfaktor von 20 multipliziert), geht man auf die Einheit Sievert [Sv] über. Die Energie von 1J/kg bleibt bei beiden Einheiten gleich. Nun zu einigen Eckwerten: Eine Ganzkörperdosis von 5 Sv führt bei 50% der Menschen innerhalb von 30 Tagen zum Tod (ohne medizinische Versorgung). Beruflich strahlenexponierte Menschen dürfen einer jährliche Dosis von 0,020 Sv ausgesetzt sein. Maximal in einem einzelnen Jahr von 0,050 Sv. Eine in Deutschland lebende Person erhält eine mittlere effektive Dosis von 0,0021 Sv pro Jahr.

In diesem Artikel wurden bewußt alle Ziffern einmal ausgeschrieben und auf die üblichen Dezimalvorsätze verzichtet. Damit soll die in der Natur vorkommende Bandbreite von „Strahlengefahr“ deutlich gemacht werden. Möge dies ein Hinweis sein, warum es in Tschernobyl nicht „Millionen Tote“, ausgestorbene Wälder und eine „Mutanten-Show“ gibt. Ganz im Gegenteil: Die Natur erobert sich bereits sogar die Reaktortrümmer zurück. Die reale Welt hat halt wenig mit der Phantasie – oder sollte man besser dem Wunschdenken sagen – von „Atomkraftgegnern“ gemein.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Kelvin allein zu Haus: Der Unter­schied zwischen zwei Watt ist deren Umgebungs­temperatur

 

Abbildung: Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes       Rot: Verlauf der T4-Funktion des Stefan-Boltzmann-Gesetzes           Blau: Temperaturanstieg für einen zusätzlichen Strahlungsbeitrag von (Delta S = 235 W/m²) in Abhängigkeit von der jeweiligen Umgebungstemperatur T0

Je nach Umgebungstemperatur T0 ergibt eine spezifische Strahlung von (Delta S = 235 W/m²) also einen Temperaturanstieg von 255K oder von 46K oder von 32K oder…

Wenn wir uns jetzt einmal in der nachfolgenden Graphik genauer ansehen, welchen Temperaturanstieg eine zusätzliche Leistung von 1 [W/m²] nach dem Stefan-Boltzmann-Gesetz bewirken kann, dann reicht die Spanne von 64,8K bei 0 [W/m²] (entsprechend einer Umgebungstemperatur von 0K) bis zu 0,18K bei 399 [W/m²] (entsprechend einer Umgebungstemperatur von 289K):

Das große Diagramm ist für eine verbesserte Auflösung auf 3 Kelvin reduziert, die 64,8K bei 0 W/m² bestimmen den Maßstab der kleinen Graphik. Hier ist aufgetragen, um wieviel Kelvin sich die Temperatur erhöht, wenn die spezifische Strahlungsleistung um (Delta S = 1 W/m²) ansteigt, beispielsweise ergibt sich bei dem Schritt von 40 auf 41 W/m² ein Anstieg von 1 Kelvin. Das T4-Gesetz von Stefan und Boltzmann weist also jedem Delta S [W/m²] ein ganz konkretes Delta T [K] zu, je nachdem, wie groß die jeweilige spezifische Strahlungsleistung der Umgebung in [W/m²] respektive deren Temperaturäquivalent T0 [K] ist.

Umgekehrt erhöht sich nach dem Stefan-Boltzmann-Gesetz mit steigender Umgebungstemperatur T0 die erforderliche Strahlungsleistung Delta S [W/m²], um einen weiteren Temperaturanstieg von 1 Kelvin auf T1 zu bewirken:

Der lernhelfer.de erklärt die S-B-Umgebungsgleichung folgendermaßen (mit kleinen Anpassungen durch den Autor): Je nach dem Verhältnis der beiden Temperaturen T1 (Körper) und T0 (Umgebung >>Körper) sind drei Fälle zu unterscheiden:

Wenn T 1 > T 0 dann gibt der Körper mehr Strahlung an die Umgebung ab als er aufnimmt.
Er kühlt sich dabei ab.

Wenn T 1 = T 0 dann befindet sich der Körper mit seiner Umgebung im Strahlungsgleichgewicht. Die Temperatur des betreffenden Körpers bleibt gleich.

Wenn T 1 < T 0 dann nimmt der Körper mehr Strahlung aus der Umgebung auf als er an diese abgibt.
Er erwärmt sich dabei.

Versuchen wir einmal, diese Gesetzmäßigkeit analog zur Abbildung (Delta Strahlungsleistung pro 1 Kelvin) graphisch vereinfacht mit Dreiecken abzubilden:

In allen 3 Fällen hat der Körper am Ende also die gleiche Temperatur wie seine Umgebung. Die nachfolgende Abbildung mag diesen Vorgang auf Grundlage der vorherigen „Dreieckssymbolik“ verdeutlichen:

Vielleicht wird jetzt auch deutlich, warum man die hemisphärische solare Einstrahlung auf der Tagseite nicht über die gesamte Erdoberfläche mitteln darf. Die nachfolgende Mittelung von (S0*(1-ALPHA)=Seff=940 W/m²) auf die Hemisphäre der Tagseite mit (Smean = 470 W/m²) ist eigentlich falsch, denn korrekt folgt die örtliche Einstrahlung der Formel (Si = Seff * cos PHIi). Aber dann lässt sich die Situation wiederum graphisch nicht mehr so einfach darstellen. Die nachfolgende vereinfachte Graphik möge also lediglich den Fehler einer globalen Mittelung verdeutlichen:

Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfass einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung weg, der Temperaturen oberhalb von (-18°C) erzeugen kann. Mit dem sogenannten „natürlichen atmosphärischen Treibhauseffekt“ soll dann in einem thermodynamisch widersinnigen Prozess ein kälterer Körper einen wärmeren Körper um angeblich 33°C erwärmen, um schließlich wieder der „gemessenen“ Realität zu entsprechen. Aber dazu fehlt diesem kälteren Körper ganz offensichtlich die erforderliche spezifische Strahlungsleistung, denn die Leistungsdifferenz von [Delta S = 155 W/m²] liegt eindeutig „außerhalb“ der spezifischen Strahlungsleistung dieses kälteren Körpers.

Mit der globalen Mittelung der hemisphärischen Sonneneinstrahlung hatte man also deren S-B-Temperaturäquivalent soweit reduziert, dass zwischen dieser fehlerhaften theoretischen Ableitung und der „gemessenen“ Realität eine Lücke von 33 Grad klafft. Diese Lücke hatte man dann mit einem frei erfundenen Perpetuum-mobile-Prozess namens THE wieder zu schließen versucht. Aber „2x falsch“ ergibt nun mal nicht „richtig“, auch wenn das Ergebnis nun scheinbar wieder stimmt. Es ist vielmehr eine böse Ironie des Schicksals, das dieses antiphysikalische „Trojanische Pferd“ jetzt einer politisch gewollten Großen Transformation dazu dient, die Zerstörung des kohlenstoff-basierten Lebensstandards in den westlichen Industrienationen zu begründen, was unsere Kinder und Enkel schließlich in ein ökologisches und ökonomisches Mittelalter zurückwerfen wird. In das intellektuelle Mittelalter eines klimareligiösen Angstglaubens hatte uns ja bereits die politische Klimawissenschaft mit ihrem jahrzehntelangen medialen Trommelfeuer aus Schreckensmeldungen geführt…




Die fünfteilige Fernsehserie „Tschernobyl“; Eine Serie von SKY und HBO

Es ist ein Film, der zeigt, wie Menschen eine Katastrophe ausgelöst haben und dann damit umgegangen sind. War Tschernobyl das Schlimmste, was Menschen je angerichtet haben? Dazu zeigt der Film eine eindrucksvolle Szene. Eine alte Frau soll bei der Evakuierungsaktion ihr verstrahltes Anwesen verlassen, gerade, als sie ihre Kuh melkt. Sie sagt dem Soldaten, der sie nicht nur auffordert mitzukommen, sondern sie mit seiner Waffe bedroht: „Ich habe die Revolution überstanden, den anschließenden Bürgerkrieg, die Hungersnot nach der Zwangskollektivierung und die Kämpfe des 2. Weltkrieges. Wovor sollte ich noch Angst haben? Ich bleibe.“

Viele Leute, vorwiegend Alte, haben damals so entschieden. Es ist auch so: Alle die aufgeführten von Menschen absichtlich herbeigeführten Katastrophen waren schlimmer als Tschernobyl, selbst wenn man den übertriebensten Behauptungen glaubt.

Was im Film nicht gesagt wird: Wer sich der Evakuierung widersetzte, entschied meist richtig. In Weißrussland sollte niemand mehr als 40 Mikrosievert pro Stunde (µSv/h) ausgesetzt sein, wo höhere Werte gemessen wurden, holte man die Leute ab. 40 µSv/h ist zwar fast das Doppelte, was Astronauten u.a. in der Station „Mir“ aushalten mussten (27 µSv/h), aber das über Monate, während die Strahlung aus Tschernobyl schon nach 2 Wochen erheblich abgenommen hatte. Bewohnte Bereiche der Stadt Ramsar im Iran bekommen dauernd bis 28 µSv/h von Natur aus.

Ist nun aber Tschernobyl nur der schlimmste Unfall der Kerntechnik, oder die größte technische Katastrophe des 20. Jahrhunderts? Es war die größte Katastrophe der Technik überhaupt, liest man in einem Bericht der weißrussischen Regierung von 2016. Weißrussland hätte darunter am meister gelitten. Im selben Bericht wird aber auch geschrieben, die Zahl der Sterbefälle in Weißrussland pro 100.000 Personen und Jahr hätte keinen Anstieg gezeigt, nicht einmal unter den „Liquidatoren“. Das heißt, Opfer unter der nicht im Kraftwerk beschäftigten Bevölkerung gibt es nicht oder sie sind zu selten, um sich in der Sterbestatistik zu zeigen. Wie passt das zu der Aussage, es wäre die größte technische Katastrophe gewesen, mit „nur“ etwa 50 Toten?

Ich denke, das kann man schon sagen. Mehrere Zehntausend Menschen haben einige Jahrzehnte gearbeitet, um das größte Kraftwerkszentrum der Welt zu errichten, alles vergeblich. Eine Stadt mit 50.000 Einwohnern und dazu noch über 100 größere und kleine Orte wurden aufgegeben. Halb Europa wurde in Mitleidenschaft gezogen. Bei uns gilt: Niemand außerhalb des Geländes eines Kernkraftwerkes darf einer höheren Jahresdosis als 0,3 mSv ausgesetzt werden. Das ist wenig, 15 % der normalen Strahlenexposition im Flachland von 2 mSv. Unsere Kraftwerke haben diesen Grenzwert locker eingehalten, nicht einmal 0,1 mSv wurden jemals überschritten. Es hätte aber auch eine gewaltige Aufregung ausgelöst und wäre das Topthema in allen Medien gewesen, wären irgendwo ein paar Leute den 0,3 mSv nahegekommen oder sogar darüber hinaus.

Und da deckte das Unglück in einem Land, das gar nicht an Deutschland grenzt, uns von der Nordsee bis zu den Alpen mit radioaktiven Isotopen ein, was die meisten Menschen hier mit dem halben Grenzwert belastete, in großen Gebieten aber mit dem vollen Wert von 0,3 und hier und da auch mit mehr als 0,3 mSv/a.

Im Film konnten die Fachleute gar nicht begreifen, was passiert war, und hielten es für unmöglich. Uns an der „Asse“ ging es ebenso. Wir bestimmten die Aktivität von Regenwasser und konnten das Ergebnis nicht glauben. Das musste doch ein Messfehler sein!

Wir besorgten uns Daten, wie viel Aktivität in so einem Reaktor ist, und dividierten den Wert durch die Fläche von halb Europa. Das Ergebnis passte zu unseren Messwerten.

Die Beurteilung des Unglücks als größte technische Katastrophe ist schon berechtigt, und der Film darüber wirklich eindrucksvoll und sehenswert. Allerdings werden Strahlenwirkungen teilweise übertrieben dargestellt. Wer Strahlendosen über 7 Sievert abbekommt, stirbt nach qualvollem Leiden innerhalb von einigen Wochen. Ärzte können den Tod hinauszögern, aber nicht verhindern. Der Film zeigt da grässliche Bilder, aber so war es. Dass aber die Toten dann solche Strahlenquellen sind, dass man sie nicht anfassen darf, stimmt nicht.

Getötet wurden sie durch Gammastrahlen, die aber keine Radioaktivität im Körper erzeugen. Dazu kamen Neutronenstrahlen. Die sind tatsächlich in der Lage, aus normalen Atomen radioaktive zu machen. Wer aber wie ich einmal die Ausbeuten berechnet hat (nicht von Leichen), weiß, dass sehr wenig dabei herauskommt. Eine andere Möglichkeit ist, dass radioaktive Stoffe in die Körper der Leute eingedrungen sind. Trotz Schutzkleidung und teilweise Atemschutz mag das passiert sein, aber viel war es sicher nicht. Eine lebensgefährliche Strahlung aus den Körpern heraus ist nicht vorstellbar.

Im Film wird behauptet: Würde es zu einer Wasserstoffexplosion kommen, dann wäre das die eigentliche Katastrophe, auch die Stadt Kiew hätte aufgegeben werden müssen. Sicherlich nicht. In Fukushima hat es eine Wasserstoffexplosion gegeben. Dadurch wurde die Freisetzung erheblich erhöht, erreichte aber trotzdem bei weitem nicht den Grad von Tschernobyl. Eine Wasserstoffexplosion in Tschernobyl hätte zu einer erheblichen zusätzlichen Freisetzung von Radioaktivität geführt, so dass es gut war, dass man sie verhindern konnte. Aber mehr Radioaktivität als im Reaktor war, konnte nicht verstreut werden, und etwa ein Viertel war schon draußen.

In einem Film über Tschernobyl erwartet man, dass ein Anstieg der Krebsraten beobachtet wird. Wirklich? Im erwähnten Bericht der Weißrussischen Regierung wird das bestritten. Woher kommt überhaupt die Ansicht, mehr Krebs wäre zu erwarten?

Im Film wird einfach behauptet, es wäre so. Unabhängig vom Film möchte ich darlegen, woher diese Behauptungen kommen. Bei hohen Dosen, man hat das bei Hiroshima und Nagasaki beobachtet, gibt es wirklich einen Anstieg der Krebsraten. Aus den dortigen medizinischen Statistiken ließ sich ermitteln: Werden 100 Personen je einer Strahlendosis von einem Sievert (Sv) ausgesetzt, dann ist mit 5 zusätzlichen tödlichen Krebsfällen zu rechnen. Da es leider sowieso 25 Krebsfälle pro 100 Personen gibt, werden es also 30. Außerhalb des Reaktorgeländes von Tschernobyl hat niemand 1 Sv abbekommen. Aber für solche Fälle hat man die Kollektivdosis erfunden. Die 100 Leute, je 1 Sv, haben zusammen 100 Sv. Es gibt also pro 100 Sv 5 Tote. Die gesamte betroffene Bevölkerung um Tschernobyl hat zusammen etwa 80.000 Sv abbekommen. Für jeden waren es im Durchschnitt 16 mSv, also 5.000.000 x 0,016 = 80.000. 16 mSv sind nicht viel gegenüber der natürlichen Umgebungsstrahlung. Die bringt uns in 80 Jahren 2 x 80 = 160 mSv. Also bringen 16 mSv vermutlich keinen um, aber nun kommt die Kollektivdosis. Pro 100 Sv gibt es 5 Tote, also rechnet man: (80.000: 100) x 5 = 4.000 Tote.

Machen wir die Rechnung einmal für Schnaps. Jemand trinkt 2 l und stirbt an Alkoholvergiftung. Oder die Flasche wird an 100 Personen verteilt, jeder bekommt ein Schnäpschen von 20 ml. Aber zusammen sind es wieder 2 l, also muss genau einer von 100 sterben? Absurd? Aber so werden die Tschernobyl-Toten berechnet. 4.000 sind „Grünen“ jedoch zu wenig. Das lässt sich ändern. Der Ausgangswert von 5 zu 100 wird erhöht, die Kollektivdosis auch, so kommt man zu passenden Zahlen. Hat das aber etwas mit der Wirklichkeit zu tun?

 

Trotz dieser Übertreibungen: Der Film wird Anti-Atom-Aktivisten keine Freude machen. Das Fazit ist keineswegs: Diese Technik ist zu gefährlich, legt alle Kernkraftwerke still! In der fünften und letzten Folge wird die juristische Aufarbeitung gezeigt. Nur nebenbei wird erwähnt, dass auch die Konstrukteure eine Mitschuld trifft. Die Steuerstäbe hätten besser sein können.

 

Es geht um das Verhalten der Menschen. Vorgesetzte waren uneinsichtig, teilweise aber auch hilfreich, Untergebene waren zu gehorsam, Unangenehmes wurde unterdrückt. Aber Einige riskierten alles, um die Wahrheit ans Licht zu bringen. Nicht die Technik an sich, sondern das Verhalten der Menschen hat das Unglück herbeigeführt, durch Nachlässigkeit, Machtstreben und viele Lügen.

 

Das wird ganz allgemein gesagt: Die Wahrheit zu unterdrücken, kann immer nur schlimme Folgen haben.

 

Hannover, den 17.09.2019




Alarm, Angst, weglauf – hier ist alles verstrahlt!

Radioaktivität ist verboten

Der Gesetzgeber hat zusätzliche Radioaktivität verboten, denn das hätte eine zusätzliche Bestrahlungsdosis zur Folge, und das soll gefährlich sein. Aber was ist zusätzliche Radioaktivität? Der ganze Erdball ist radioaktiv, aber nicht gleichmäßig, sondern an allen Stellen verschieden hoch. Es sollen drei Beispiele beschrieben werden, wo es Strahlenalarm gegeben hat, weil unser Herrgott etwas zu schlampig bei der Erschaffung der Erde vorgegangen ist.

 

1) Die (Hals)kettenreaktion [1]

Vor etwas mehr als einem Jahr gab es Strahlenalarm am Frankfurter Flughafen durch eine Luftfrachtsendung aus China, die an eine Adressatin in der Schweiz geliefert werden sollte. Die Sendung enthielt 25kg von einem Gesteinspulver mit erhöhter Radioaktivität. Einige Jahre zuvor hatte die Adressatin schon einmal eine ähnliche Menge vom radioaktiven Gesteinspulver bestellt, welches ohne Strahlenalarm über den Seeweg die Empfängerin erreicht hatte. Die Kundin in der Schweiz hat mit dem Gesteinspulver Halsketten hergestellt, die nicht nur hübsch aussehen, sondern denen auch noch eine förderliche Wirkung für die Gesundheit zugeschrieben wird. Die erste Sendung war aufgebraucht, jetzt war weiteres Material notwendig.

Der Strahlenalarm am Frankfurter Flughafen hatte erhebliche Folgen: Die Polizei erschien bei der Adressatin, sie wurde verhört, alles radioaktive Material wurde sichergestellt. Alle früheren Kunden wurden benachrichtigt, auch deren Halsketten sollten entsorgt werden. Das Ganze wurde als Straftat bezeichnet. Es ist eine lange Geschichte [1], die hier im Einzelnen nicht ein zweites Mal beschrieben werden kann.

Ich habe eine Halskette dieser Art in den Händen gehalten und konnte mit einem verlässlichen Strahlenmeßgerät direkt auf der Kettenoberfläche einen Strahlenpegel von 5 Mikrosievert pro Stunde messen. Bei einem Flug auf Reiseflughöhe auf unserer Breite setzen sich ALLE Insassen des Fliegers STÄNDIG mit ihrem GANZEN Körper einem Strahlenpegel von etwa 5 Mikrosievert pro Stunde aus (noch variabel mit der Aktivität der Sonne). Unser Herrgott hat Himmel und Erde geschaffen, so steht es geschrieben. Warum ist dann die Strahlung in der Höhe erlaubt, die gleiche auf der Erde aber verboten?

 

2) Die Mineraliensammlung in Schulen im Salzburger Land [2]

Durch Zufall wurden durch den Anti-Atomaktivisten Thomas Neff in der Mineraliensammlung einer Salzburger Schule radioaktive Gesteinsproben entdeckt. Das ergab ein Medienecho, initiiert durch die Salzburger Plattform gegen Atomgefahren und hatte zur Folge, daß überall nach „brisantem Material“ gesucht wurde, denn schließlich hatte der Geiger-Zähler bis zum Anschlag ausgeschlagen. Man wurde an etlichen Schulen fündig und startete ein Meßprogramm mit den 44 gefundenen Gesteinsproben. In 10cm Entfernung von den Proben wurde ein Strahlenpegel im Bereich von <0,1 bis zu >10 Mikrosievert pro Stunde gemessen, Maximalwert war 29 Mikrosievert pro Stunde.

Die Gesteinsproben lagerten schon jahrzehntellang unbenutzt in den Schränken. Die meisten stammten vermutlich aus St. Joachimsthal in Tschechien, das auf Gestein liegt mit höherer Radioaktivität. Das wird dort das radioaktive Edelgas Radon aus dem Gestein freigesetzt, so daß der Ort zu einem Heilbad wurde.

Es wurde veranlasst, daß die Gesteinsproben nur in bruchsicheren verschlossenen Gefäßen aufzubewahren sind, und daß diese Gefäße wiederum in abgeschlossenen Schränken aufzubewahren sind. So sei sichergestellt, daß niemand weder ein Staubkörnchen von den Steinen einatmen könne, noch davon abbeißen könne. Zugang ist nur unterwiesenen Personen während möglichst kurzer Zeit erlaubt.

Wieder bietet sich der Vergleich mit dem Strahlenpegel beim Fliegen an: In der üblichen Höhe von 10 bis 12km sind es etwa 5 Mikrosievert pro Stunde, in der größeren Flughöhe der Concorde wurden die Fluggäste während der gesamten Flugzeit einem Strahlenpegel von 10 bis 15 Mikrosievert pro Stunde ausgesetzt. Ist es die Richtung, aus der die Strahlung kommt, die den Unterschied in der Bewertung macht: einmal vom Himmel, das andere Mal von der Erde??? Aber warum ist dann seit uralten Zeiten der Herkunftsort der Steine, St. Joachimsthal, ein Heilbad??? Sind die Strahlen von unten wirklich „Teufelszeug“, wie es Kardinal Reinhard Marx aus München mit einer Bemerkung anzudeuten schien???

 

3) Strahlung inmitten unserer Städte [3]

Überall, wo viele Menschen sind, wird inzwischen nach Strahlung gesucht. So hat man in den Zentren der Städte gesucht – und natürlich wurde man fündig. Es werden folgende Strahlenpegel angegeben:

Der natürliche Untergrund mit                                       60 bis 80 nSv/h

Die tolerierbare Umgebungsstrahlung sind                    maximal 300 nSv/h

Erhöhte Strahlung in Leipzig, Dresden                          um 600 nSv/h

Strahlung in Oranienburg, Hannover, jetzt saniert          1 200 nSv/h bis 15 600 nSv/h

Zur Erläuterung:

1 nSv = 1 Nanosievert = 1/1000 Mikrosievert = 1/1000 µSv = 1/1 000 000 Millisievert = 1/1 000 000 mSv

Natürlich muß man eine ganze Stunde an der Stelle mit 15 600 nSv/h stehen bleiben, um die gleiche Dosis zu erreichen, die Fluggäste in der Concorde während einer Stunde erhalten. Die Concorde gibt es nicht mehr, aber im normalen Flugzeug über den großen Teich ergeben sich dieselben zusätzlichen Bestrahlungsdosen:

Beim Flug über den Atlantik FRA – JFK – FRA summiert sich die erhaltene Dosis auf

80 µSv bis 140 µSv

Und das sind Bestrahlungsdosen, die in der Kerntechnik sämtliche Alarmglocken läuten lassen würden, denn in der Kerntechnik werden riesige Geldbeträge ausgegeben, um die vom Gesetzgeber vorgegebene Grenze einer zusätzlichen Dosis von

10 µSv/a

nicht zu überschreiten. Bei der Kerntechnik gibt es in Medien Schlagzeilen „Alles ist verstrahlt“, Dosisvergleiche mit Bodenstrahlung oder Höhenstrahlung werden vermieden.

 

Was soll mit den niedrigen in der Kerntechnik geltenden Grenzen bezweckt werden?

Diese Frage liegt nahe, aber eine Antwort könnte nur der Gesetzgeber geben. Der Gesetzgeber steht aber zur Beantwortung von Fragen des Bürgers nicht zur Verfügung. Und es steht zu vermuten, daß er in der Materie nicht Bescheid weiß, die Fragen nicht beantworten kann. Die niedrigen Grenzen gelten nur für den Umgang mit Kernbrennstoffen, nicht für Bodenstrahlung, nicht für Höhenstrahlung und nicht in der Medizin. Natürlich sind die Grenzen in der Kerntechnik unlogisch, aber da sich niemand auskennt und da die wirklichen Fachleute in Medien und Politik nicht gehört werden, funktioniert die Volksverführung mit der Strahlenangst.

Die Strahlenangst wird geschürt um ein politisches Ziel zu erreichen. Die Medien machen da mit. Entweder sind sie schon selber von der Strahlenangst total ergriffen, so daß sie sich noch nicht einmal dazu aufraffen, sich in den Fachmedien zu informieren. Oder die Medien sind inzwischen so stark von der Obrigkeit abhängig geworden, daß sie sich keine freie Berichterstattung mehr zutrauen.

[1] https://nuklearia.de/2018/10/18/radioaktive-halskette/Sehr zu empfehlen, denn die 27-seitige Darstellung von Dr. Walter Rüegg mit vielen nützlichen Zitaten befasst sich mit dem Strahlenrisiko, was durch eindrucksvolle Vergleiche die behördlichen Vorschriften lächerlich erscheinen lässt.

[2] StrahlenschutzPRAXIS 2/2018 Seite 50 bis 53

[3] R. Gellermann: The world we really live in – communication on radiation, Kerntechnik 77 (2012) 3




Stickoxid, Ethanol, Strahlung — Wie giftig sind diese Gifte?

Grundsätzliches: Was ist ein Gift?

Wenn man eine Substanz auf deren Schädlichkeit für Lebewesen untersuchen will, macht man damit Tierversuche, indem man die Tiere hohen Konzentrationen der Substanz aussetzt. Es wird der NOAEL-Wert (No Observed Adverse Effect Level) festgestellt: oberhalb dieses Wertes gibt es schädliche Einflüsse auf das Leben der Tiere, unterhalb des Wertes ist kein Schaden feststellbar, siehe folgende Darstellung:

Aus dem NOAEL-Wert leiten Toxikologen den MAK-Wert ab, das ist die Maximale Arbeitsplatz Konzentration der Substanz in der Luft für 1600 Arbeitsstunden im Jahr. Der MAK-Wert gilt für Menschen, und dabei wurde ein Sicherheitsabstand zum NOAEL berücksichtigt. In der MAK-Liste findet man dazu Einzelheiten.

Bei einer Dosis unterhalb von NOAEL – also beim MAK-Wert bzw. tiefer – muss der Organismus des Menschen den Schadstoff ebenfalls bekämpfen, das gelingt, denn es ist kein Schaden bemerkbar. Durch dieses Bekämpfen des Schadstoffes wird die Abwehrkraft des Organismus gegen den Fremdstoff gestärkt und das ist dann ein Nutzen für den Organismus. In der Medizin nennt man dieses „adaptive Antwort“, bei Strahlung hat man dazu ein extra Wort erfunden, man sagt „Hormesis“ dazu [1]. Den Nutzen kann man an Versuchstieren mit kurzer Lebensdauer nachweisen. Bei Menschen gelingt das wegen ihrer langen Lebensdauer selten, nur in Sonderfällen ist die nützliche Wirkung durch Stärkung des Immunsystems zu beobachten.

Ein gutes Beispiel für den beschriebenen Mechanismus ist die Tatsache, dass bei Kindern von Bauernhöfen weniger Allergien als bei Stadtkindern beobachtet werden. Die Kinder von Bauernhöfen kommen häufiger mit vielerlei Keimen in Berührung, daher ist deren Immunsystem besser gegen Angriffe gewappnet.

Man muss abwägen zwischen nützlicher Hygiene und übertriebener Jagd auf Bakterien, Viren, Sporen, körperfremder Substanzen…. Die Stärkung der körpereigenen Abwehr ist ein gutes Mittel gegen Schadstoffe.

Aspirin ist in der Dosis 30 bis 50 mg ein Blutverdünner, bei 0,5 bis 2g schmerzstillend, bei 2 bis 5g entzündungshemmend und bei 30 bis 40g tödlich [2]. Auch jede Schutzimpfung ist ein Beispiel für eine adaptive Antwort des Organismus.

Toxikologen haben viele Dosis-Wirkungsbeziehungen gemessen und den J-förmige Verlauf gefunden mit Schaden bei großer Dosis und Nutzen bei kleiner Dosis. Beispiele sind Substanzen wie Natriumhypochlorit, Methanol, Penicillin, Fluridone, Quecksilber, Aluminium, 4-Chloro-2-methylphenoxyacetic Acid, Ethanol, Phosfon, Cadmium, Kupfer, Na-Arsenate, Retinoesäure, Phenobarbital, Cadmiumchlorid, 1,4-Dioxan, Dioxin, 3-Methylcholanthrene, Saccharin, Lindan, dazu auch Strahlung von Neutronen und Gammastrahlung [3].

Zur Diskussion von Risiken durch Fremdstoffe sollen zwei Substanzen und Strahlung behandelt werden.

Beispiel 1, Stickoxide in der Luft:

Der NOAEL-Wert liegt bei 20 000µg/m³ Luft [4], dazu passend erscheint der MAK-Wert von 9000µg/m³ Luft, der bis 2009 in Deutschland galt. Heute gilt bei uns der MAK-Wert 950µg/m³ Luft, in der Schweiz gilt 6000µg/m³ Luft. Zu allen Änderungen in der MAK-Liste geben die Toxikologen eine Begründung, die man nachlesen kann. In dem Beispiel von NO2 fehlt in den Medien jegliche Stellungnahme zu der Änderung. Der heute geltende Jahresmittelwert von 40µg/m³ Luft erscheint bedeutungslos für die Gesundheit von Lebewesen. Eine nützliche, aber an Menschen nicht nachweisbare Wirkung des NO2 könnte im Bereich von einigen 1000µg/m³ liegen.

Beispiel 2, das beliebte Gift Ethanol ( = Alkohol), logarithmische Abszisse:

Ethanol – meist sagt man nur Alkohol dazu – ist ein Gift, dennoch ist es den Menschen lieb geworden und wird viel konsumiert. Daher sagt man nicht „Gift“ dazu. In Abhängigkeit von Menge des Konsums gibt es viele negative Eigenschaften: es ist giftig, kanzerogen, teratogen, brennbar, explosiv, hat Suchtpotential.

Vom Gesetzgeber wurde ein Grenzwert von 0,5‰ als Konzentration im Blut festgelegt, das kann man als NOAEL-Wert sehen. Als MAK-Wert wurde 380mg/m³ Luft festgelegt, das sind bei normalem Atemvolumen auf das Jahr hochgerechnet rund 300g Alkohol als zugelassene Jahresdosis. Die Zahl der Überschreitungen des MAK-Wertes in Deutschland wird auf 10 Milliarden pro Jahr geschätzt, allein beim Münchner Oktoberfest sind es Millionen Überschreitungen. Die Zahl der Todesfälle infolge Alkoholkonsum geht in die Tausende, die Zahl der Suchtkranken in die Millionen.

In Deutschland liegt der mittlere Alkoholkonsum bei etwa 10 Litern reinem Alkohol pro Jahr. Damit trinkt im Mittel jeder Mensch in unserem Lande im Jahr rund 40 tödliche Dosen. In meinem Supermarkt in der Nähe stehen in den Regalen immer etwa 1000 tödliche Giftdosen zum Verkauf.

Ethanol ist auch nützlich für die Gesundheit, sonst würden es die Menschen nicht so häufig konsumieren. Die Grenze zwischen Schaden und Nutzen ist variabel, hängt von vielen Faktoren ab. Wer seinen Körper auf die Bekämpfung des Giftes trainiert, macht ihn fit dazu, den irgendwann folgenden nächsten Angriff abzuwehren. Das Training ist nützlich für die Gesundheit und ein weiteres Beispiel für das Schutzsystem des Körpers.

Beispiel 3, Strahlung von radioaktiven Substanzen, logarithmische Abszisse:

Die letale Ganzkörperdosis liegt bei etwa 4 Sievert und ist als Dosis in kurzer Zeit zu verstehen, so wie es bei Alkohol und allen anderen Substanzen bei der Giftwirkung verstanden wird.

Im Gegensatz zu den ersten zwei Beispielen NO2 und Alkohol macht man bei Strahlung die Annahme, daß die Wirkung unabhängig von der Zeitdauer ihres Einwirkens ist und sich die Dosis und damit auch das Risiko mit der Zeit summiert (LNT-Hypothese). Das ist in der obigen Darstellung beachtet: Die Grenzwerte sind summierte Dosen über ein ganzes Jahr, dsgl. die als nützlich angegebenen Empfehlungen. Nach Krebs-OP wird täglich mit einer Organdosis von 2 Sv bestrahlt, in der Summe werden ca. 60 Sv gegeben [5].

Die Strahlenschutzgesetze gelten nur für den Umgang mit Kernbrennstoffen, nicht für Höhenstrahlung, Bodenstrahlung und nicht in der Medizin. Daraus ergeben sich Widersprüche [6]. Was in der Kerntechnik verboten ist, wird in den anderen Bereichen toleriert.

Die Existenz der nützlichen Wirkung ist bei Strahlung vielfach bewiesen. Es gibt mehrere tausend Veröffentlichungen und gute Bücher dazu: Henriksen [7], Allison [8], Sanders [9], Hiserodt [10]. In Deutschland folgt man der LNT-Hypothese, man findet nur wenig zur nützlichen Strahlenwirkung. Die deutschen Professoren Klaus Becker und Ludwig Feinendegen haben sich oft darüber beklagt, wenn Forschungsergebnisse unterdrückt wurden, die der LNT-Hypothese widersprachen.

Um von der nützlichen Wirkung von Strahlung zu profitieren, sollte die Dosisleistung im Bereich von 15µSv/h bis 800µSv/h liegen [7, 8, 9, 10]. In der Internationalen Raumstation ist das der Fall, der Strahlenpegel – also die Dosisleistung – ist rund 1000-fach höher als unten auf der Erde, und das ist keinesfalls schädlich [11].

Was sollen solche Vergleiche bewirken?

Es läuft einiges falsch in der Beurteilung von körperfremden Substanzen / Strahlung. Um das zu erkennen, sind Vergleiche ein nützliches Instrument.

  • Bei Strahlung ist die schädliche Wirkung von hoher Kurzzeitdosis bewiesen, dazu gibt es einige wenige Beispiele. Dennoch wird dort gemäß dem Vorsorgeprinzip JEDE noch so kleine Dosis verboten. Wenn es tatsächlich um die Gesundheit der Menschen gehen würde, sollte dieses Vorgehen auch dort praktiziert werden, wo es sehr viele Beispiele für einen Schaden gibt, und das ist und bleibt der Alkohol. Also sollten zur Vorsorge für die Gesundheit auch bei Alkohol JEDE noch so kleine Dosis minimiert werden und infolgedessen verboten werden — das macht man aber nicht, denn man weiß um die Unsinnigkeit dieses Vorgehens.
  • So wie man bei Strahlung aus der Dosis-Wirkungsbeziehung virtuelle Opfer nach der LNT-Formel berechnet, so sollte man aus der bekannten Dosis-Wirkungsbeziehung bei Alkohol ebenso eine LNT-Formel ableiten und daraus die virtuellen Opfer des Alkohols berechnen. Das Ergebnis wären einige Millionen Todesopfer durch Alkohol jedes Jahr in Deutschland, und die gibt es nicht.
    Die Berechnung virtueller Todesopfer ist unsinnig, bei Strahlung, und bei Alkohol. Und auch bei NO2 und Feinstaub, wie es zur Zeit in der aktuellen Diskussion geschieht.

Was sollte getan werden?

Das Prinzip der „adaptive Antwort“ bzw. der „Hormesis“ ist ein universelles Prinzip in der belebten Natur. Lebewesen müssen trainieren um fit zu werden, wir wissen das vom Lernen der Vokabeln aus der Schulzeit und vom Sport. Dasselbe gilt auch für die Abwehr von körperfremden Substanzen und Strahlung, diese Abwehr macht den Körper fit und das dient der Gesundheit. Strahlenbiologen erklären den Mechanismus, wie die biopositive Wirkung der Strahlung funktioniert [12]. Die öffentliche Meinung zu Strahlung wurde seit nahezu einem ganzen Jahrhundert fehlgeleitet mit katastrophalen Folgen für die Menschheit.

Es gibt heutzutage keine Möglichkeit, in den Genuß der nützlichen Strahlenwirkung zu gelangen, wie es oben in Beispiel 3 von Luckey, Doss, Allison, Sanders angedeutet wird. Nur Einzelpersonen wie Alexander Gerst hatten in der ISS die Möglichkeit. Man weiß aber nicht, wie lange diese Positivwirkung für Herrn Gerst anhält. Um für die Erdenbürger hier unten eine Dauerbestrahlung wie in der ISS zu erreichen, braucht man künstliche Gamma-Quellen, wie es sich beim Co-60-Ereignis von Taiwan zum Glück ergeben hatte [13]. Mit Hilfe einer Co-60-Punktquelle der Aktivität im Bereich von 107 bis 108 Bq und Abstand kleiner als einem Meter ist der erforderliche Strahlenpegel zu erreichen – die Strahlen-„Schutz“-Gesetze verbieten das.

Die Strahlenschutzregeln gemäß der LNT-Hypothese und dem ALARA-Prinzip sind der folgenreichste wissenschaftliche Irrtum der Neuzeit (Prof. Walinder). Sie verhindern nicht nur die Versorgung der Menschheit mit billiger und unerschöpflicher Kernspaltungsenergie, sondern sie verhindern auch die Nutzung von ionisierender Strahlung um beste Gesundheit für die Menschen zu erreichen. Was heute an Arbeit zur Minimierung von Strahlendosen aufgewendet wird, sollte in Forschungsarbeiten zur nützlichen Strahlenwirkungen am Menschen investiert werden. Dazu sind zunächst die Strahlenschutzregeln ein Hindernis, eine 180-Grad-Wende ist erforderlich. Zuerst beim Gesetzgeber, dann bei der öffentlichen Meinung.

Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen. Es ergibt sich die Frage, ob die heutigen Strahlenschutzgrundsätze nicht gegen die in Art. 1 und 2 GG garantierten Grundrechte „Würde des Menschen“ und „körperliche Unversehrtheit“ verstoßen.

Literatur

[1] Richard Friebe, „Hormesis, Wie Stress und Gift uns stärker machen“, ISBN 978-3-446-44311-2, 21,50 EURO

[2] Römpp-Chemielexikon, Wikipedia

[3] https://www.ncbi.nlm.nih.gov/pubmed/12195028 Calabrese et.al. “Hormesis The Dose-Response Revolution”

[4] Mitteilung von Prof. Dr. Hans-Günter Appel, naeb

[5] Deutsches Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[6] https://www.eike-klima-energie.eu/2018/06/24/die-widerspruechlichkeiten-beim-strahlenschutz/

[7] T. Henriksen et.al., „Radiation and Health“, 2012, kostenlos unter http://tinyurl.com/nlsm4wm

[8] W. Allison, “Nuclear is for Life, A Cultural Revolution”, 280 Seiten, 25,50 EURO

[9] Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, 210 Seiten, 171,- EURO

[10] Hiserodt, “Underexposed, What if Radiation is actually GOOD for You?” ISBN 0-930073-35-5, 249 Seiten

[11] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[12] https://www.ncbi.nlm.nih.gov/pubmed/15673519

[13] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/




Eine Reise nach Tschernobyl in 2018

Für die Rückholung werden unzutreffende Ansichten über die Ausbreitung und Wirkung radioaktiver Stoffe vorgebracht. Dazu kommen für die heutige und künftige Sicherheit der Menschen in den umliegenden Orten gänzlich bedeutungslose juristische Spitzfindigkeiten: Bei der Einlagerung der radioaktiven Abfälle in das Bergwerk wären irgendwelche Vorschriften nicht eingehalten worden.

Aber es gibt die Strahlenschutzkommission, unser oberstes Beratungsgremium auf dem Strahlengebiet. Das ist keineswegs eine Atomlobby. Die 20 Wissenschaftlerinnen und Wissenschaftler werden jeweils für 2 Jahre vom BMUB (Bundesministerium für Wissenschaft usw.) berufen. Diese haben einstimmig empfohlen und ausführlich begründet: Die radioaktiven Abfälle sollten unten bleiben.

Strikt gegen Kernenergie ist das Ökoinstitut Freiburg. Aber auch dort gibt es Fachleute, und Herr Michael Sailer hat bei einer Anhörung in Berlin überzeugend dargelegt: Wie die Lage nun einmal ist, sollten die Abfälle nicht wieder ans Tageslicht geholt werden.

Nicht ein Bundestagsabgeordneter hat ihn verstanden. Der Bundestag beschloss nach dieser Anhörung einstimmig: Die radioaktiven Abfälle müssen wieder raus. Wohin? Egal, jedenfalls erst einmal an die Erdoberfläche. Für jeden, der nicht politische Korrektheit, sondern die Wirklichkeit seinen Entscheidungen zugrunde legt, ist keiner dieser Abgeordneten mehr wählbar. Aber das war 2013. Heute gibt es glücklicherweise die AfD.

Auch sonst ist zu beobachten, dass die Zahl der Menschen zunimmt, welche sich für die Wirklichkeit interessieren. Immer mehr wollen sehen, wie es in Tschernobyl tatsächlich aussieht, allerdings weniger die Deutschen.

Ist es die Strahlenhölle, in der einem die Kaninchen mit zwei Köpfen entgegen hoppeln und man sich vor schweinegroßen Ratten fürchten muss?

Im Jahr 1992 brauchte man noch berufliche Beziehungen, um die Sperrzone besuchen zu dürfen. Ich hatte sie und war mit einer meiner Töchter dort. Schon damals setzte man sich keiner höheren Strahlendosis aus als im Flugzeug. Gärten sahen so aus wie man das nach 6 Jahren Vernachlässigung erwartet.

Im Jahr 2013 kam ich wieder, als normaler Tourist in einer Gruppe von 4 Leuten. Außer unserer kleinen Gruppe war noch eine etwas größere auf dem Reaktorgelände unterwegs. Wir sahen Wildpferde. Ein Kuckuck rief, das heißt, es lebten dort viele Kleinvögel. Die Bäume waren schon höher als die Bauernhäuser.

Bei den folgenden Besuchen 2014 und 2016 sahen wir stets steigende Touristenzahlen. 2017 sollen es 30.000 gewesen sein. Das wird dies Jahr (2018) sicher übertroffen. Als unsere 16-köpfige Gruppe in einem Kleinbus am Kontrollpunkt Dityatki ankam, standen da schon 11 weitere Kleinbusse und 3 große Busse. Schätzungsweise 350 Leute besuchten gleichzeitig das Sperrgebiet.

In unserer Gruppe waren Engländer, Holländer, Schweizer, ein Isländer. Mit mir reiste ein Radiologe. Nur drei Teilnehmer kamen aus fachlichem Interesse, außer uns eine englische Studentin der Psychologie. Was immer die Strahlung angerichtet hat, durch die Angst, welche dort erzeugt werden konnte, wurden mehr Leute krank. Für Psychologen ist das Unglück daher noch interessanter als für Physiker und Mediziner.

Wir waren schon viele Kilometer im Sperrgebiet herumgefahren, ohne eine erhöhte Strahlenintensität zu messen. Jedoch, nach Passieren eines weiteren Kontrollpunktes, waren es dann doch durchgehend 0,2 bis 0,5 Mikrosievert pro Stunde (µSv/h). Wenig gegenüber der kosmischen Strahlung im Flugzeug, wo wir bis zu 3,7 µSv/h gemessen haben, aber das Mehrfache der Umgebungsstrahlung im Flachland von 0,1 µSv/h.

Allerdings gibt es „hotspots“, die uns die Führerin zeigte, an denen auch die im Flugzeug ankommende kosmische Strahlung weit übertroffen wird. Wir haben an einigen Stellen bis 30 µSv/h gemessen. Das ist Weltraumniveau, so viel müssen Astronauten aushalten.

Der absolute Höhepunkt war ein kleiner Haufen Abfall in einem ehemaligen Krankenhaus mit 1.000 µSv/h, d.h. dem Zehntausendfachen der normalen Umgebungsstrahlung.

Ich habe abgeschätzt, welcher Dosis sich die Führerin aussetzt, die an jedem Arbeitstag den Touristen solche Attraktionen vorführt, natürlich immer nur kurz. Sie bekommt weniger Strahlung pro Jahr ab als eine Stewardess im Flugzeug.

In einem höher belasteten Bereich sind wir eine längere Strecke zu Fuß gelaufen. Da gesellte sich ein Hund zu uns, ein friedliches Tier, das sich streicheln ließ. Er und unsere Führerin kannten sich. Der Hund lebte an einem Kontrollpunkt und wurde „Alpha“ gerufen. Es gäbe dort zwei weitere Hunde, die man „Beta“ und „Gamma“ genannt hätte.

Gesundheitliche Probleme hatte Alpha nicht. Wie man aus – viel zu vielen – Tierversuchen weiß und aus Untersuchungen an Wildtieren im Sperrgebiet, reicht auch das Hundertfache der natürlichen Umgebungsstrahlung nicht, um biologische Wirkungen zu erzeugen. Aber sehen wir die Sache einmal vom Standpunkt der Strahlenhysteriker, d.h. vom heute noch allgemeinen Standpunkt. Kinder, die weit ab vom Sperrgebiet leben, werden nach Deutschland eingeladen, um sich hier von der Strahlung zu erholen. Abenteuerliche Behauptungen werden aufgestellt, so wären im Jahr 2013 in Gomel nur 20 % der Kinder gesund zur Welt gekommen. Aber Kinder, die man mehrmals für ein paar Wochen nach Deutschland einlädt, können gesund werden.

Wie sieht die Strahlensituation wirklich aus? Im Jahr 2009 wurde in einer der am stärksten belasteten Städte Weißrusslands, Bragin, als Höchstwert 0,6 µSv/h gemessen. Typische Höchstwerte anderswo lagen um 0,3 µSv/h. Das ist nun fast 10 Jahre her. Viel schlimmer ist es von Natur aus in anderen Ländern, und dort bleibt es auch so:

Kerala (Indien)           Mittel 0,4 µSv/h,    Maximum 4 µSv/h,

Guarapari (Brasilien) Mittel 0,6  µSv/h,   Maximum 4 µSv/h,

Ramsar (Iran)              Mittel 1,2 µSv/h,    Maximum 30 µSv/h.

 

Wann sind die armen Kinder aus diesen Gegenden dran?

Tierfreunde sollten zunächst an die erwähnten Hunde denken. Die leben immer im Sperrgebiet, laufen barfuß herum und lecken sich gelegentlich die Pfoten. Da wäre doch eine Erholung in Deutschland wichtig. Gegen ein nicht zu kleines Geldgeschenk sind die Besitzer sicherlich bereit, die Hunde für ein paar Wochen in Strahlenurlaub zu schicken.

Für die Feuerwehrleute und andere, welche bei den ersten Aktionen nach dem Unglück ums Leben kamen, wurden Denkmäler errichtet. Auf diesen steht: Sie haben ihr Leben geopfert, um unsere Welt zu retten.

Haben sie das? Natürlich nicht. Sie haben erreicht, dass nur ein kleiner Teil der radioaktiven Stoffe im Reaktor in die Umgebung freigesetzt wurde. Bei dem wichtigsten, Caesium 137, sind etwa 13 % freigesetzt worden. Hätte man nichts getan, wäre es das Mehrfache gewesen.

Nun gibt es die berechneten Strahlentoten. In einem offiziellen Bericht der weißrussischen Regierung wird das Unglück von Tschernobyl als das Schlimmste in der Geschichte der Technik bezeichnet, aber auch geschrieben: Die gesamte Sterblichkeit der Bevölkerung ist nicht angestiegen.

Da hört man von den Strahlenhysterikern anderes. Sie berechnen Tote mit Hilfe des Begriffes der Kollektivdosis. Lutz Niemann erklärt diesen Begriff passen anhand von Schnaps. Trinkt jemand 2 l Hochprozentiges in kurzer Zeit, ist er tot. 2 l sind also die tödliche Dosis. Teilen sich 100 Leute den Schnaps, jeder bekommt ein Schnäpschen von 20 ml, dann sind das zusammen wieder 2 l, eben die Kollektivdosis. Da nun 2 l tödlich sind, stirbt einer der 100 Schnapstrinker.

Nach dieser Rechnung mit Kollektivdosen haben die durch Strahlung gestorbenen Einsatzkräfte einer Unmenge von Menschen das Leben gerettet, wenn auch nicht die Welt. Legt man aber die gesicherte Erkenntnis zugrunde, dass es unter 100 mSv keine erkennbaren und unter 300 mSv keine für das Weiterleben gefährlichen Wirkungen gibt, und außerdem die Wirkung abnimmt, wenn diese Dosen über längere Zeiten verteilt sind, dann sieht die Sache anders aus.

Wer einen solchen Einsatz mitgemacht hat, verdient unsere höchste Achtung, wer ihn befohlen hat, nicht unbedingt.




Die Widersprüchlichkeiten beim Strahlenschutz

Damals traten bei hohen sich wiederholenden Strahlendosen gesundheitliche Schäden auf. Im Jahre 1934 legte man den ersten Grenzwert für den Umgang mit Strahlung fest und man schuf Gesetze zum Schutz vor Strahlung. Bis zur heutigen Zeit wurden die Grenzwerte ständig verringert. Allerdings bezogen sich die Grenzwerte nur auf den Umgang mit Kernbrennstoffen, im Wesentlichen also auf den Umgang mit Uran. Aus dem Auftreten von gesundheitlichen der Schäden bei hohen Strahlendosen wurde geschlossen, daß auch kleinste Strahlendosen unabhängig von der Zeit des Einwirkens schädlich seien. All dieses ist heute in Gesetzesform gegossen und wegen der Existenz dieser Gesetze wird fest an die Gefahren jeglicher Strahlung geglaubt.

Es gibt heute viele Widersprüchlichkeiten in der Strahlenschutzgesetzgebung, denn nicht nur beim Umgang mit Kernbrennstoffen gibt es hohe Strahlendosen. Im Folgenden sollen einige der Widersprüche erläutert werden:

  1. Die Strahlenschutzverordnungwurde bei uns durch ein Strahlenschutzgesetzabgelöst und so verschärft. In diesem Strahlenschutzgesetz ist jetzt auch für das überall in der Luft vorhandene Edelgas Radon der Grenzwert von 300 Becquerel pro Kubikmeter Luft für Innenräume genannt, Radon wird so als „Gefahrstoff“ gebrandmarkt. Es wurden2000 hypothetischeTodesopfer pro Jahr durch Radon in Deutschland ausgerechnet. Dabei wird übersehen, daß in Radonheilbädern die 1000-fach höhere Konzentration des Radons in der Atemluft zur heilenden Wirkung für die Patienten führt. Es gibt in Deutschland 8 Radonheilbäder, und in der EU profitieren im Jahr 80 000 Patienten von der Heilwirkung des Radons.
    Einige 100 000 Becquerel Radon pro Kubikmeter Luft in Heilbädern bewirken Heilung für Patienten, warum sind dann 300 Becquerel Radon gefährlich???
  2. In der evakuierten Zone von Tschernobyl ist der Strahlenpegel erhöht, er liegt im Bereich 0,1 bis 0,2 Mikro-Sievert pro Stunde. In unmittelbarer Umgebung des Unfallreaktors werden an einzelnen Stellen 10 Mikro-Sievert pro Stunde erreicht. Die evakuierte Zone wird „Todeszone“ genannt. Im Flugzeug hat man in Reiseflughöhe auf unserer Breite ca. 6 Mikro-Sievert pro Stunde.
    Warum gibt es in der „Todeszone“ Betretungsverbot, während die vielfach höhere Strahlung im Flugzeug täglich für Millionen Menschen erlaubt ist???
  3. Bei einem Ganzkörper-CT erhält der Patient eine Strahlendosis von 10 bis 20 Milli-Sievert in wenigen Minuten. Bei Aufräumarbeiten in der Kerntechnik gilt eine Grenze von 10 Mikro-Sievert im Jahr.
    Warum werden zur Einhaltung der Grenze in der Kerntechnik riesige Geldbeträge ausgegeben, wenn doch die 1000-fach höhere Dosis bei einem CT sich in millionenfacher Anwendung als harmlos erwiesen hat???
  4. Durch den Unfall in Fukushima hat niemand einen Schaden durch Strahlung erlitten, und es ist auch in Zukunft nicht mit gesundheitlichen Schäden zu rechnen, so berichten die von der UNO beauftragten Fachleute (UNSCEAR). Es hat aber durch die Strahlenschutzmaßnahmen der Evakuierung Todesopfer gegeben, es werden 150 bis 600 Opfer genannt (DER SPIEGEL), anderen Quellen in Japan sprechen von 1600 Opfern durch die Schutzmaßnahmen.
    Warum wird vor Strahlung geschützt, nicht aber vor unsinnigen Strahlenschutzmaßnahmen???
  5. In Kernkraftwerken westlicher Technik ist durch Strahlung noch nie ein Mensch zu Schaden gekommen, dennoch sind Italien und Österreich ausgestiegen und Deutschland folgt dem Beispiel. Weltweit hat die friedliche Nutzung der Kerntechnik laut UNSCEAR von Beginn in 1945 bis 2007 insgesamt 147 Todesopfer bei Strahlenunfällen gefordert, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen, ebenso auch Kritikalitätsunfälle in der Anfangszeit. Die IAEA gibt eine um etwa 20 höhere Zahl an. Durch Stürze von Treppen und Leitern sterben allein in Deutschland jedes Jahr etwa 5000 Menschen.
    Warum wird die Kerntechnik eine HOCH-Risiko-Technik genannt und verboten, Treppen und Leitern jedoch nicht???
  6. Im Jahre 2006 hat man sich auf einer Tagung der IAEA geeinigt, daß der Tschernobyl-Unfall insgesamt 4000 zusätzliche Krebstodesfälle zur Folge haben wird. Das sind virtuelle Todesopfer, die unter allen zukünftigen Krebsopfern nicht nachweisbar sind. Wenn man die hierbei benutzte Rechnung auf die Zusatzbestrahlung bei Flugreisen anwendet, kommt man auf jährlich 5000 virtuelle Krebsopfer weltweit durch das Fliegen, die ebenfalls nicht nachweisbar sind.
    Warum werden aus den einmaligen 4000 virtuellen Krebstodesfällen des Tschernobyl-Unfalls schwerwiegende Schlußfolgerungen gezogen, die sich jährlich wiederholenden ähnlich hohen virtuellen Opferzahlen des Flugverkehrs jedoch ignoriert???
  7. Fall A)Meine Frau ist mit ihren 52kg eine Strahlenquelle von 6000 Becquerel, mit diesen 6000 Bq bestrahlt sie sich selber und ihre Umgebung.
    Fall B)Wladimir Klitschko ist mit 110kg eine Strahlenquelle von 12 000 Bq, er bestrahlt sich selber und seine Umgebung mit doppelt so viel Radioaktivität wie Fall A.
    Fall C)Herr Minister Peter Altmaier ist mit seinen 140kg (?) eine Strahlenquelle von 15 000 Bq, er bestrahlt sich selber und seine Umgebung mit der 2 ½ – fachen Menge im Vergleich mit Fall A.
    Nun wäre es für Herrn Minister Altmaier durchaus nützlich, sich mit einigen 1000 Bq weniger zu bestrahlen, zu Erreichen durch kleineren Body-Maß-Index. Dann könnte er seine Dosis durch Eigenbestrahlung um 30 bis 50 Mikro-Sievert im Jahr verringern und würde nicht mehr den Grenzwert von 10 Mikro-Sievert im Jahr verletzten, wie er bei Freimessungen im Rückbau von Kernkraftwerken gilt.
    Warum gilt beim Strahlenschutz oft eine Grenze von 10 Mikro-Sievert im Jahr, nicht jedoch für die Eigenbestrahlung durch erhöhten Body-Maß-Index???
  8. Nach Fukushima wurden in Deutschland die erlaubten Grenzen für Kontamination mit Cäsium-137 in Nahrungsmitteln herab gesetzt, von 1000 Bq/kg auf 600 Bq/kg. Fleisch von Wildschweinen kann heute noch über der Grenze liegen. Wenn meine Frau nun einen Wildschweinbraten essen wollte mit >600 Bq/kg, dann wäre sie für einige Tage eine Strahlenquelle von etwa 6100 Bq, sie würde sich selber und alles in ihrer Umgebung mit zusätzlichen 100 Bq bestrahlen.
    Warum wird das nun als gefährlich hingestellt und verboten, wenn doch Peter Altmaier sich selber das ganze Jahr über mit 15 000 Bq bestrahlen darf???
  9. Zur ASSE:Der Bundestag hat ein Gesetz gemacht, das die Rückholung der Abfälle aus der Tiefe verlangt. Dort lagern schwach radioaktive Abfälle, so wie alles auf der Erde schwach aktiv ist. In der ASSE sind verteilt über 125 000 Fässer 250 Gramm Plutonium-241, was den Löwenanteil der Aktivität in der Tiefe ausmacht. Allerdings wird diese Aktivität wegen kurzer Halbwertszeit verschwunden sein, wenn die Abfälle eines Tages tatsächlich wieder an der Oberfläche sein werden. Dann werden die Abfälle nur noch eine Aktivität von ca. 2 mal 10 hoch 13 Bq haben. In dem Deckgebirge über der ASSE von rund einem halben Kubikkilometer Volumen befinden sich etwa 2 mal 10 hoch 15 Bq, also die 100-fache Menge an Radioaktivität.
    Warum wird die Radioaktivität in der Tiefe als Gefahr gesehen, die 100-fache Menge darüber im Deckgebirge jedoch nicht???
  10. Zur ASSE:Die Radioaktivität von ca. 2 mal 10 hoch 13 Bq ist die ganz normale Radioaktivität der Erdkruste von einem Volumen von einem Quadratkilometer Fläche und 10 Meter Tiefe. In diesem Volumen der Erdkruste wachsen unsere Lebensmittel und wird unser Trinkwasser gewonnen. Deutschland hat eine Fläche von 356 000km², also das besagte Volumen an der Oberfläche 356 000-fach.
    Wie kann es sein, daß die Radioaktivität in der Tiefe der ASSE eine Gefahr darstellt, die 356 000-fach vorhandene gleiche Menge an der Oberfläche jedoch nicht???
  11. Zur ASSE:In der Landwirtschaft in Deutschland werden durch Düngung mit Kali in 2 bis 3 Jahren eine Menge Radioaktivität von etwa 2 mal 10 hoch 13 Bq durch K-40 auf die Felder verteilt.
    Warum ist die Radioaktivität in der Tiefe der ASSE gefährlich, die auf den Äckern verteilte gleiche Menge jedoch nicht???
  12. Zur ASSE:In 2 bis 3 Jahren werden von den Menschen in Deutschland mit der Nahrung etwa 2 mal 10 hoch 13 Bq durch Kalium-40 und Kohlenstoff-14 verspeist ohne negative Folgen für deren Wohlergehen. Die eingeatmete Radioaktivität durch Radon und seine Zerfallsprodukte liegt um den Faktor 10 höher.
    Warum ist die Radioaktivität in 500 Meter Tiefe der ASSE gefährlich, die viel höhere von den Menschen verspeiste und eingeatmete Menge jedoch nicht???
  13. Bei Radioaktivität und vielen anderen umweltpolitischen Diskussionen wird mit nicht nachweisbaren virtuellen Todesopfern argumentiert, aktuell bei Feinstaub und Stickoxiden. Das Rechenverfahren wurde im Umgang mit Radioaktivität erfunden und führte zur Verdammung der Kerntechnik und oft auch zur Verweigerung nützlicher medizinischer Strahlenanwendungen. Würde man das Rechenverfahren auch in der Medizin bei Bestrahlung nach Krebs-OP anwenden, dann käme man auf viel mehr Todesfälle als es überhaupt gibt. Würde man dieses Rechenverfahren auch bei dem allseits beliebten „Gift“ und Kanzerogen Ethanol anwenden, so käme man allein in Deutschland auf eine Todesrate, die 3-fach über der tatsächlichen liegt. Warum ist die Politik als oberste Autorität der Demokratie nicht bereit, diese Unstimmigkeiten zu beseitigen???
  14. Die weltweit geltenden Strahlenschutzgesetze erlauben dem Bürger eine maximale zusätzliche Dosis von
    1 Milli-Sievert im Jahr. Diese Dosis ist gleichbedeutend mit einer Temperaturerhöhung des menschlichen Körpers von 0, 000 000 2°C. Zur Erhaltung des Lebens brauchen wir eine Temperatur von 36°C, also rund 20°C mehr als die Umgebung.
    Die Lebensvorgänge in unseren Zellen sorgen für 100-millionenfach höheren Energieumsatz als die erlaubte Strahlung von 1 Milli-Sievert im Jahr, daher ist diese neben den Lebensvorgängen bedeutungslos – wann wird das erkannt und in den Massenmedien gesagt???
  15. Strahlung von Radioaktivität ist nicht grundsätzlich schädlich, wie es der Menschheit seit 80 Jahren suggeriert wird. Zusätzliche Strahlung führt zu zusätzlichem Training des Abwehrsystems im Organismus von Lebewesen und zusätzlichen Fähigkeiten des Immunsystems zur Abwehr und Korrektur von Fehlern. Dieser Zusammenhang ist seit langen als Hormesis bekannt und verspricht gigantische gesundheitliche Vorteile. Daher wird das Minimierungsgebot im Strahlenschutz auch „der größte wissenschaftliche Irrtum“ der Menschheit genannt.
    Wann werden die Menschen bereit sein, diesen fatalen Irrtum zu korrigieren???

Die 15 Beispiele zeigen Fehler/Irrtümer in der Strahlenschutzgesetzgebung. Die Ursache dazu ist die falsche Lehrmeinung, nämlich die Annahme, daß jede noch so kleine Strahlendosis schädlich sei. Die Strahlengefahr ist keine reale Gefahr, sie ist eine virtuelle Gefahr. Und die damit berechneten Todesopfer sind nicht real, sondern virtuell, d.h. es gibt sie nicht. Einige Mitglieder der Internationalen Strahlenschutzkommission sprachen von einem Geisterbild, das sagt viel. Die Strahlenschutzgesetzgebung sollte auf den Stand der Wissenschaft gebracht werden, dazu sind die internationalen und nationalen Gremien gefordert: ICRP, UNSCEAR, IAEA, BfS, SSK;  mit Unterstützung der Massenmedien.  

 

 

 

 




Brennstäbe unterm Bett

Als Lilli drei Jahre alt war, bat sie mich jeden Abend, nachzusehen, ob unter ihrem Bett auch wirklich kein Krokodil sitzt. Was wir nicht sehen können, ist halt immer am unheimlichsten, besonders, wenn wir uns sicher sind, dass „es“ da ist. Alle Kinder durchlaufen eine Phase magischen Denkens. Sie meinen dann zum Beispiel, dass ihr Denken oder Tun Einfluss auf unzusammenhängende Ereignisse hat. Erwachsene sind auch nicht frei davon. Manche stecken Nadeln in Puppen, um den in Wolle nachempfundenen Unglückswurm nach Voodoo-Art zu verwünschen, andere konzentrieren sich auf Löffel und Gabeln, um sie zur Unbrauchbarkeit zu verbiegen und aufgeschlossene Innenarchitekten stimmen die Geister der Luft und des Wassers mit Hilfe von Feng Shui gewogen.

Magie gibt es auch als religiöse Wunder-Edition: Jesus hatte seinerzeit Wasser in Wein verwandelt, während Mohammed bekanntlich auf seinem geflügelten Pferd Buraq gen Himmel geflogen ist. Auch der Alltag von uns aufgeklärten Weltbürgern ist nicht frei von Magie. Allerorten lauert die unsichtbare Gefahr. Mir zum Beispiel ist unser Mikrowellenofen nicht geheuer. Andere fürchten sich vor Handystrahlen. Und dann ist da noch der eine Zauber, der uns alle bange macht [Soundeffekt: „Psycho“-Geigen unter der Dusche]: das Atom!

Magie und Strahlung

Man kann es nicht sehen, hören, tasten, schmecken oder riechen, es ist sinnlich schlichtweg nicht zu erfassen. Der britische Science-Fiction-Autor Arthur C. Clarke formulierte drei Gesetze, von denen das letzte lautet: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ Weil sie sich unseren Sinnen entzieht, ist die Atomenergie ein solches Hexenwerk. Kein Wunder, dass sie uns genauso ängstigt wie die kleine Lilli ihr Krokodil unter dem Bett.

„Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire.“


1917 teilte Ernest Rutherford in Manchester das „Atom“ (altgriechisch für unteilbar) zum ersten Mal. Fortan legte es eine steile Kariere hin und nach 28 Jahren war aus einem obskuren Winzling die denkbar schrecklichste Waffe geworden. Nach dem Schock von Hiroshima und Nagasaki rückte die zivile Nutzung der Irrsinns-Energie in den Vordergrund. In der Euphorie der Nachkriegsjahre fand die Zaubertechnik zunächst einmal Bewunderer. 1946 wurde gar ein neuartiges, zweiteiliges Badekostüm nach jenem Atoll benannt, in dem versuchsweise Atombomben gezündet wurden (Slogan: „Der Bikini, die erste an-atomische Bombe“).

Landauf, landab wurden fortan Kernkraftwerke gebaut und lieferten Unmengen an Strom. Dass sie dabei kein CO2 oder sonstige Abgase freisetzen, spielte in den Sechzigern noch keine Rolle, umso mehr jedoch, dass sie aus natürlichem Uran waffenfähiges Plutonium erbrüteten. Im Kalten Krieg war das nicht nur ein schöner Zusatznutzen, sondern der Kern des Pudels. Ein weiterentwickelter Reaktortyp, der Thorium-Flüssigsalzreaktor, wurde deshalb schnell wieder eingemottet. Er war zwar in mehrerlei Hinsicht sicherer, aber leider nicht geeignet zur Herstellung von Bombenrohstoff. In den 1980er-Jahren hat dann Deutschland die Idee weiterentwickelt. In Hamm-Uentrop stand ein Thorium-Testreaktor mit silbernem Designer-Kühlturm. Nach Tschernobyl wurde er gleich wieder stillgelegt. Wir hätten Vorreiter sein können.

Es kam anders, weil in unseren Köpfen hängengeblieben ist, dass alles, was „Atom“ im Namen trägt, nicht nur der Gesundheit abträglich ist, sondern grundsätzlich finstere Ziele verfolgt. Atomenergie, Atommüll, Atomwaffen – alles eine Soße. Kein Wunder, dass die ganze Begriffswelt unwiderruflich verstrahlt ist: Reaktor, Störfall, Kernspaltung, Wiederaufbereitung, Schneller Brüter – bei der bloßen Erwähnung solcher Unworte schüttelt’s einen. Dazu kommen die Bilder: Das gelb-schwarze Strahlungswarndreieck, die betongrauen Riesenkühltürme, die hochgerüstete Staatsmacht. Im Angesicht dieser magischen Superpower geht es nicht mehr um bloßes Für und Wider, sondern um Leben und Tod. Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire (neben dem Virtue Signalling).

„Die Castoren enthalten nutzbare Energie für hunderte von Jahren.“


Flucht- und Angriffsreflexe in potenziellen Gefahrensituationen sind uns allen mitgegebene Überlebensmechanismen. Ob das jeweilige Angstszenario durch Erfahrung begründet ist, ein Produkt unserer magischen Intuitionen ist oder einfach nur durch vielfachen Vortrag ausgeformt wurde, spielt in Demokratien keine Rolle. Jede Stimme zählt und die Politik hat das zu berücksichtigen. Überhaupt, vage Bauchgefühle bilden die Zukunft im Zweifel nicht schlechter ab als handverlesene Statistiken und wir alle haben noch klar vor Augen, wie ein Atompilz aussieht und was er anrichtet. Im Übrigen hat die angeblich so sichere Reaktortechnik nicht nur einmal versagt. Doch wie schlimm war’s wirklich? Und gilt das immer noch für die zivil genutzte Kernenergie der nächsten Generation?

Thorium-Flüssigsalzreaktor

Jede Technik, die irgendetwas bewirkt, kommt mit Nebenwirkungen. Die regenerativen Energien sind da keine Ausnahme. Anders als zum Beispiel Windräder, ein Konzept aus dem 14. Jahrhundert, ist Kernkraft eine junge Technik mit viel Spielraum zur Optimierung. Und wer hätte es gedacht, unbemerkt von uns germanischen Umweltfreunden tut sich hier gerade wieder eine ganze Menge. Zumindest in den Industriestaaten gibt es kein Interesse mehr an weiterem Plutonium. Im Gegenteil, das Zeug muss weg, am besten gleich zusammen mit dem restlichen Atommüll. Und so wenden sich alle Augen jetzt wieder dem Thorium-Flüssigsalzreaktor zu, denn der vereint geradezu magisch viele Eigenschaften der guten Sorte:

  • GAUs, also Kernschmelzen verbunden mit austretender radioaktiver Strahlung, sind konstruktionsbedingt unmöglich.
  • Der Brennstoff wird bis zu 99 Prozent genutzt, es bleibt kaum Restmüll übrig. Bisher lag die Energieausnutzung unter 5 Prozent. Carlo Rubbia, Nobelpreisträger in Physik, sagt, mit einem Kilo Thorium können wir so viel Energie produzieren wie mit 200 Kilo Uran.
  • Es entstehen rund tausendmal weniger radioaktive Abfälle als bei den üblichen Leichtwasserreaktoren. Fünf Sechstel davon sind schon nach 10 Jahren stabil, der Rest nach 300 Jahren.
  • Unsere radioaktiven Müllberge einschließlich Plutonium können Stück für Stück mitverbrannt werden, statt hunderttausende Jahre im Endlager zu verrotten. Die Castoren enthalten nutzbare Energie für hunderte von Jahren.
  • Es ist nicht möglich, im Betrieb Uran oder Plutonium für den Bau von Atombomben abzuzweigen.
  • Thorium ist günstiger und kommt viermal häufiger vor als Uran. Thorium-Strom ist kostengünstiger als der billigste Strom aus Kohlekraftwerken.
  • Flüssigsalzkraftwerke können sehr viel kleiner gebaut werden als herkömmliche KKWs. Sie sind in Modulbauweise in Serie herzustellen und dezentral einsetzbar.
  • Es ist denkbar, die Reaktoren unterirdisch zu bauen. Das erschwert Terroranschläge.
  • Sie sind schnell an- und abschaltbar und können so die systembedingte Sprunghaftigkeit erneuerbarer Energiequellen perfekt ausgleichen.
  • Wie alle anderen Kernkraftwerktypen stoßen auch Flüssigsalzreaktoren kein CO2 aus.

Die ersten neuen Thorium-Flüssigsalzreaktoren laufen gerade an, der Betrieb in großem Maßstab ist allerdings noch Jahre entfernt. Wenn wir am Ball bleiben, lösen wir mit ihrer Hilfe eine ganze Reihe der Probleme im Zusammenhang mit unserem Energiebedarf und der alten Kernenergie. Das sehen weltweit auch immer mehr Umweltexperten so. Deutsche Ökos, die starrsinnigsten aller Pessimisten, erkennen darin nichts weiter als böse Gaukelei der „internationalen Atomlobby“. (Wenn es darum geht, den armen Mitbürgern zum Zweck der Profitmaximierung Schaden zuzufügen, werden leider selbst die reaktionärsten Industriellen grundsätzlich zu Internationalisten.)

„Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht.“


Auf unserer Wohlstandsinsel haben wir nicht im Blick, was die Entwicklungsländer wirklich brauchen. Wir hier in der schönen ersten Welt haben zwar hohe Energiepreise, aber alles in allem gut lachen. Für drei Milliarden Menschen in der dritten Welt hingegen ist das größte Problem ein fehlendes Stromnetz. Keine verlässliche Energieversorgung zu haben, heißt, dass nichts von dem, was wir als selbstverständlich voraussetzen, funktioniert. Gekühlte Medikamente im Landkrankenhaus? Nur, wenn das Licht ausbleibt, denn Strom für beides gibt die eine Solarzelle auf dem Dach nicht her. Nachts wird es erst recht schwierig. Der Weg aus der Armut ist ein grundlastfähiges Stromnetz für eigene Industrien und Infrastrukturen. Für uns ist Strom eine Selbstverständlichkeit, in Afrika brächte er mit dem dadurch wachsenden Wohlstand Nahrung, Gesundheit und Frieden. Kohle- und Gaskraftwerke und Sprit schluckende Autos soll Afrika nicht haben dürfen, weil der Weltklimarat das CO2 fürchtet. Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht. Da bleibt nur eine Technik übrig – die gute alte Kernkraft, die aber weltweit abnimmt. Doch wie ist das mit den Risiken der Nukleartechnik? Thorium hin oder her, was ist bisher geschehen? Hier kommen Daten:

  • Ist jede kleine Strahlendosis schädlich?

Gemäß der „Linear No Threshold“-Hypothese (LNT) steigt das Krebsrisiko mit jeder jemals erhaltenen Dosis linear an. „Je weniger Strahlung, desto besser“ ist die übliche Sprachregelung, auf der die Risikohochrechnungen beruhen. Manche Institute sind anderer Ansicht, nämlich, dass der Körper mit geringer Strahlung gut klarkommt und dass sich die Wirkung von Strahlung nicht lebenslänglich im Körper kumuliert.

  • Wie hoch ist die Strahlenbelastung, wenn man eine Banane isst?

0,001 Millisievert.

  • Wie hoch ist die Höchstdosis der Bevölkerung Deutschlands durch laufende Kernkraftwerke?

Zehn Bananen – 0,01 Millisievert pro Jahr – bei großzügiger Berechnung. Tatsächlich ist es meist weniger. Ein Flug nach Japan liegt zehnfach höher, eine Computertomografie hundert- bis dreihundertfach.

  • Wie hoch war die durchschnittliche Strahlenbelastung innerhalb eines 16-km-Radius bei der Three-Mile-Island-Kernschmelze (bei Harrisburg, 1979)?

80 Bananen oder 0,08 Millisievert.

  • Gibt es eine natürliche Strahlung auf der Erde?

Die durchschnittliche Jahresdosis durch Hintergrundstrahlung beträgt 2,4 mSv (Millisievert), das 240-Fache der maximalen Belastung durch KKWs in Deutschland. Hierzulande liegt sie im Schnitt bei 2,1 mSV, mancherortsvielfach höher. Die Stadt Ramsar im Iran bestrahlt ihre Bewohner an jedem einzelnen Tag mit dem Äquivalent von zwölf Röntgenbildern, ohne dass dort die Sterblichkeit ansteigt, ganz im Gegenteil, die Leute werden bei guter Gesundheit uralt.

  • Ist eine geringe Menge an Radioaktivität womöglich sogar gesund?

Es wäre unmoralisch, das zu testen, indem man Menschen im Großversuch bestrahlt. Doch genau das ist in Taiwan passiert. Was war da los in Taipeh? Um 1982 herum wurde versehentlich ein Container mit strahlendem Kobalt-60 zusammen mit regulären Stahlresten verschmolzen und zu Stahlträgern verarbeitet. Diese wurden in 180 Neubauten eingesetzt. Etwa zehntausend Menschen zogen für 9 bis 20 Jahre ein. Erst 1992 begann man, die harte Gammastrahlung der Häuser zu bemerken. 2003 betrug die kumulierte Kobalt-Strahlendosis der Bewohner 600 mSv, bei manchen bis zu 4000 mSv, das ist 1600 Mal höher als die durchschnittliche Hintergrundstrahlung der Erde.

„Studien zeigen, dass geringe und mittlere Dosen von Strahlung gesundheitsfördernd sein könnten.“


In diesen 20 Jahren hätte man statistisch 232 Krebstote durch natürliche Ursachen, also ohne das Kobalt-60 in der Wand, erwarten können. Gemäß den LNT-Datenmodellen müssten weitere 70 durch die erhöhte Strahlung hinzukommen, zusammen 302. Tatsächlich starben aber nur sieben Menschen an Krebs. Die Bewohner dieser kontaminierten Gebäude hatten ein um beispiellose 97 Prozent gemindertes Krebsrisiko. Zufall? Oder eine Nebenwirkung der Kobalt-60-Radioaktivität? Ohne die eingebaute Strahlungsquelle wären 46 Neugeborene mit einer Form von genetischer Missbildung wie Down-Syndrom oder Kinderlähmung zu erwarten gewesen. Doch es kamen nur drei solche Babys zur Welt (alle drei mit Herzfehlern, die später verheilten), das ist eine Verringerung von Gendefekten bei Neugeborenen um 93 Prozent. Die Bewohner waren im Schnitt jünger als die Gesamtbevölkerung, das erklärt einen Teil der geringeren Krebshäufigkeit. Spätere Untersuchungen konnten auch noch weitere Störeinflüsse berücksichtigen, etwa die lange Zeitspanne von der Entstehung einer Krebskrankheit bis zur Diagnose und die variierende Wirkung der Kobaltstrahlung auf unterschiedliches Gewebe. Übrig bleibt eine um 40 Prozent niedrigere Krebsrate. All dies deutet auf eine positive Wirkung von Strahlung in geringer und mittlerer Höhe hin, man nennt das Hormesis.

  • Was ist Hormesis?

Seit Jahrmillionen sind Lebewesen radioaktiver Strahlung ausgesetzt, in der Frühzeit stärker als heute. Durch Adaption entstanden Mechanismen, die molekulare Strahlungsschäden umgehend reparieren – und zwar so übereffizient, dass nicht nur akute, sondern auch bereits vorhandene Zellschäden gleich mit repariert werden. Studien zeigen, dass geringe und mittlere Dosen von Strahlung (aber auch anderer Stressfaktoren wie Gifte), durch diesen Trainingseffekt gesundheitsfördernd sein könnten – selbst noch in einer Höhe, die der maximal erlaubten Dosis für Kernkraftwerksarbeiter entspricht. In Gegenden mit höherer Hintergrundstrahlung gibt es weniger Krebsfälle. Britischen Radiologen wurde eine überdurchschnittliche Lebenserwartung attestiert. In amerikanischen Bundesstaaten, in denen Atomtests stattfanden, ist die Lungenkrebsrate deutlich niedriger als in den anderen.

  • Löst Strahlung Genmutationen aus, die weitervererbt werden?

Ionisierende Strahlung kann zu Mutationen im Zellkern führen. Dass es in der Folge zu Gendefekten bei den Nachkommen kommt, ist aber offenbar höchst selten. Die Radiation Effects Research Foundation, eine japanisch-amerikanische Organisation, die seit Ende der 1940er-Jahre gesundheitliche, genetische und umweltbezogene Langzeiteffekte der radioaktiven Strahlung der Atombombenopfer von Hiroshima und Nagasaki untersucht, findet keinen Anstieg von Gendefekten bei den Kindern der Betroffenen, selbst wenn ihre Eltern extrem hohen Dosen ausgesetzt waren.

  • Wie viele Menschen hat die zivile Nukleartechnik bisher insgesamt auf dem Gewissen?

Unumstritten sind insgesamt und weltweit 209 Tote seit 1945. Bei einem Unfall in Kyshtym 1957 schwanken die Schätzungen zwischen 49 und 8015 Toten als Spätfolgen. Damit kollidieren sie jedoch mit der bis zu 39 Prozent niedrigeren Krebsrate gegenüber einer nicht kontaminierten Vergleichsgruppe aus der Gegend.

  • Und Tschernobyl?

Neben den 45 Mitarbeitern, die bereits oben eingerechnet sind, kursieren unterschiedliche Schätzungen zu den Langzeitfolgen von Tschernobyl, gemäß UN sind bislang 58 weitere Strahlenopfer zu beklagen. Die Spätfolgen beziffert die Weltgesundheitsorganisation auf bis zu weitere 4000 Krebstote. Greenpeace behauptet, es werden 200.000 oder mehr werden. Das International Journal of Cancer wiederum schreibt in einer Studie, es sei unwahrscheinlich, dass die Folgen des bislang größten Strahlungsunfalls in den Krebsstatistiken Europas überhaupt erkennbar werden und auch bislang gebe es in Europa keinen daraus resultierenden Anstieg.

  • Fukushima?

Null Tote durch den (größten anzunehmenden) Reaktorunfall. Was 18.000 Menschenleben kostete, war eines der schwersten jemals gemessenen Erdbeben und der darauffolgende Tsunami, nicht aber die dreifache Kernschmelze. Gemäß UN-Report waren die Arbeiter im havarierten Kernkraftwerk im Schnitt nur 140 mSv ausgesetzt, daher besteht für sie kein erhöhtes Krebsrisiko. Ein zweiwöchiger Aufenthalt innerhalb der Sperrzone bedeutete typischerweise 1 mSv, das ist wenig (vgl. Taipeh). Für die Bevölkerung war das größere Gesundheitsrisiko die Überreaktion der Behörden, ausnahmslos alle zu evakuieren.

  • Welche Energiequelle ist die tödlichste?

Kohle. Wenn man mal CO2 außen vor lässt, liegt die Sterblichkeit im weltweiten Schnitt bei 100.000 pro Billiarde Kilowattstunden. Öl: 36.000, Biomasse: 24.000, Solarzellen: 440, Windräder: 150 (Vögel nicht mitgezählt). Kernkraft schneidet mit weitem Abstand am besten ab: 90.

„Was außerhalb unseres Einflusses liegt, macht uns panisch.“


Um all dem Geraune von Mutationen, Strahlung und Toten noch zwei weitere Kennziffern hinzuzufügen: Jährlich sterben 3.000.000 Menschen durch Luftverschmutzung und weitere 4.300.000, weil sie mangels Strom in ihren vier Wänden Holz und Dung (in den weltweiten Statistiken subsumiert unter „Erneuerbare Energien“) zum Kochen und Heizen verbrennen. Das bekommen wir nur nicht so mit.

Was wir mitbekommen und was wir uns merken, ist das Spektakuläre, das Visuelle und das, worüber die Medien berichten und unsere Freunde reden: Schweinegrippe, kalbende Eisberge, Flugzeugabstürze. Und natürlich Hiroshima, Fukushima, Tschernobyl. Zerstörung läuft plötzlich ab, Aufbau nur langsam. Langsam hat keinen Nachrichtenwert, deshalb besteht die mediale Ausgabe der Welt zu großen Teilen aus Kurseinbrüchen, Superstürmen und Unfällen aller Art. Dazu kommt, dass wir Risiken, die wir nicht selbst beeinflussen können, maßlos überschätzen. Hausgemachte Gefahren hingegen ereilen gefühlt immer nur die anderen, zum Beispiel der ganz gewöhnliche Tabakgenuss, welcher für Raucher das mit Abstand größte Lebensrisiko darstellt. Was wir vermeintlich selbst kontrollieren könnten, lässt uns kalt (gähn, Reiseverkehr …). Was außerhalb unseres Einflusses liegt, macht uns panisch (OMG, Turbulenzen!).

Als kleiner Junge konnte ich eine Weile lang nicht einschlafen. Ich war überzeugt, die RAF würde mich holen kommen. Sie kam nicht. Und was das Atom betrifft: Vielleicht wäre es mal an der Zeit, nachzusehen, ob da wirklich ein Krokodil unter dem Bett lauert.

Der Beitrag erschien zuerst bei NOVO Argumente




Symmetrie und Gleichgewicht

Fangen wir also am Anfang an, nämlich an der Obergrenze der Atmosphäre TOA. Die von der TOA nach unten strahlende Solarenergie für die nördliche und die südliche Hemisphäre sieht so aus:

Abbildung 1: Von der TOA nach unten strahlende Sonnenenergie, gemittelt über 24 Stunden an 7 Tagen der Woche [24/7] über die gesamte Erdoberfläche.
Allerdings kommt diese Energie nicht vollständig unten an. Vieles davon wird ins Weltall zurück reflektiert. Also nahm ich mir die CERES-Solardaten vor und subtrahierte die reflektierte Solarstrahlung. Die nach oben strahlende Solarenergie an der TOA wird reflektiert von Wolken, Aerosolen, Erde, Pflanzen, Eis und Ozeanen. Die von der TOA nach unten minus der von unten zur TOA reflektierten Solarenergie ist die zur Erwärmung des Planeten zur Verfügung stehende Energiemenge. Die Menge verfügbarer Solarenergie rund um die Welt sieht so aus:

Abbildung 2: Karte der globalen Verteilung der verfügbaren Solarenergie. Hierbei handelt es sich um verbleibende Solarenergie nach Abzug der Albedo-Reflektion des einfallenden Sonnenlichtes zurück ins Weltall.

Hatte ich erst einmal die verfügbare Energie, entfernte ich die jahreszeitlichen Variationen. Dabei handelt es sich um die Änderungen, welche sich Jahr für Jahr wiederholen. Die Eliminierung dieser wiederkehrenden Signale hinterlässt lediglich die geringen Variationen, die unregelmäßigen Änderung der reflektierten Strahlungsmenge geschuldet sind. (Es gibt auch eine sehr geringe, auf Sonnenflecken bezogene Variation der einfallenden Solarstrahlung von etwa einem Viertel eines W/m² auf der 24/7-Grundlage. Sie geht in die folgenden Berechnungen mit ein, macht aber praktisch keinen Unterschied).

Hier also ein erster Blick auf die Menge der verfügbaren Energie, welche die große planetenweite Wärmemaschine am Laufen hält, die wir Klima nennen, unterteilt für die beiden Hemisphären:

Abbildung 3: Solarenergie an der TOA und verfügbare Solarenergie nach [Entfernung der] Albedo-Reflektionen. Die Solarenergie macht etwa 340 W/m2 aus, wovon etwa 100 W/m2 wieder in den Weltraum reflektiert werden.
Dabei darf man nicht vergessen, dass die in das Klimasystem eintretende Energiemenge nach Albedo-Reflektionen eine Funktion hoch variabler Eis-, Schnee- und Wolkenverhältnisse ist … und trotzdem gibt es nur sehr geringe Variationen, sowohl räumlich als auch zeitlich. Jahr für Jahr gleichen sich Wolken, Eis und Schnee praktisch aus, auf beiden Hemisphären … warum?

Wie man oben erkennt, liegt die auf beiden Hemisphären verfügbare Solarenergie so nahe beieinander, dass ich die die Südhemisphäre repräsentierende Linie dünner zeichnen musste als die für die Nordhemisphäre, damit man beide erkennt. Um die beiden separat zu betrachten, müssen wir uns hinein zoomen, das Ergebnis davon zeigt Abbildung 4:

Abbildung 4: Verfügbare Solarenergie an der TOA ohne Albedo-Reflektionen, nördliche und südliche Hemisphäre.

Augenblicklich bemerkte ich einige Merkwürdigkeiten in dieser Graphik. Eine davon ist, dass trotz der großen Unterschiede zwischen der Nordhemisphäre (mehr Landfläche, viel Eis und Schnee in mittleren und hohen Breiten) und der Südhemisphäre (mehr Ozeanfläche, kaum Festland oder Eis/Schnee in mittleren Breiten) die Menge der mittleren einfallenden Energie innerhalb ½ W/m² liegt (NH = 240,6 W/m²; SH = 241,1 W/m², schwarze und rote gestrichelte horizontale Linie.

Zweitens, die Verhältnisse auf beiden Hemisphären sind allgemein parallel. Sie nahmen zu von 2003 bis 2004, blieben auf einem Niveau von 2013 bis 2014 und nahm dann wieder zu.

Drittens, es zeigt sich eine offensichtliche zeitliche Verschiebung zwischen den beiden Hemisphären. Zuerst dachte ich an die entgegen gesetzten Jahreszeiten … aber dann fiel mir ein, dass es in den Daten keine jährlichen Signale mehr gibt. Und ich vergewisserte mich, dass es auch kein Sechs-Monate-Signal mehr in den Daten gab. Nicht nur das, sondern auch – bis etwa 2011 lief die Südhemisphäre der Nordhemisphäre voran, aber danach lieft die Nordhemisphäre wieder voran. Warum?

Ich liebe die Freuden einer settled Wissenschaft …

In jedem Falle wollte ich jetzt die Variationen der verfügbaren Energie vergleichen mit den Variationen der Temperatur an der Erdoberfläche. Nun enthalten die CERES-Daten keine Oberflächen-Temperaturen. Allerdings gibt es darin einen Datensatz der von der Oberfläche nach oben gehenden Strahlung, welche manchmal „Strahlungstemperatur“ genannt wird, weil sie zur vierten Potenz der Temperatur variiert. Abbildung 5 zeigt die monatlichen Änderungen der von der TOA nach unten gehenden Solarstrahlung im Vergleich mit der von der Oberfläche nach oben gehenden Strahlung:

Abbildung 5: Scatterplot, Oberflächen-Strahlungstemperaturen (ausgehende langwellige Strahlung) im Vergleich mit der mittleren, an der TOA verfügbaren Solarenergie. Jeder Punkt steht für die Situation in einem 1° mal 1°-Gitternetz, welches den gesamten Planeten überspannt. Es befinden sich also 64.800 Punkte in der Graphik.

Was sagt uns dieser Scatterplot nun? Offensichtlich hängt das, was vor sich geht, von der Temperatur ab … und vielleicht weiteren Parametern. Um das verständlicher zu machen, möchte ich die gleichen Daten zeigen, aber getrennt nach Hemisphäre und getrennt zwischen Festland und Ozean. Hier zeige ich die vermutlich erhellendste Graphik bzgl. des Festlandes auf der Südhemisphäre:

Abbildung 6: Scatterplot, Strahlungstemperaturen der Südhemisphäre, nur Festland vs. mittlere verfügbare Solarenergie an der TOA

Rechts erkennt man die südlichen Gebiete von Afrika und Südamerika … und links die Antarktis. Man kann eindeutig die unterschiedlichen Reaktionen ausmachen, die auftreten bei Temperaturen im Minus-Bereich und im Plus-Bereich.

Als Nächstes kommt hier die gleiche Darstellung für die Nordhemisphäre:

Abbildung 7: Scatterplot, Strahlungstemperaturen der Nordhemisphäre, nur Festland vs. mittlere verfügbare Solarenergie an der TOA

Nirgendwo auf der Nordhemisphäre kühlt sich das Festland so stark ab wie in der Antarktis. Teilweise liegt das daran, dass sich der Südpol auf dem Festland und dort auf einem hoch gelegenen Plateau, der Nordpol dagegen in einem Meer befindet.

All dies zeigt, dass die Reaktion der Planetenoberfläche auf zunehmende Sonneneinstrahlung teilweise eine Funktion der Temperatur ist. Je niedriger die mittlere Temperatur, umso mehr reagiert das System auf zunehmende Sonneneinstrahlung.

Damit im Hinterkopf zog ich noch einmal Abbildung 5 heran und berechnete die Neigung in dem Teil der Welt, der im Mittel nicht gefroren ist. Das Ergebnis dieser Berechnung zeigt Abbildung 8:

Abbildung 8: Wie in Abbildung 5 einschließlich des Trends der nicht gefrorenen Gebiete des Globus‘.

Diese Graphik fand ich nun höchst eigenartig, und zwar aus folgendem Grund: Der Treibhauseffekt ist der Grund, dass die Oberfläche des Planeten wärmer ist als man aus der einfachen Berechnung auf der Grundlage der Menge Sonnenstrahlung, welche die Erde trifft, erwarten würde. Grund hierfür ist die Absorption der ausgehenden langwelligen Strahlung, und wenn sie strahlen, geht etwa die Hälfte der Strahlung in den Weltraum, die andere Hälfte zurück zur Erde. Als Folge davon ist die Erde wärmer als sie es anderenfalls wäre.

Falls der „Treibhauseffekt“ – eine schlechte Etikettierung – zu 100% perfekt wäre für jedes zusätzliche, in das System einfallende W/m² Sonnenlicht, würde die Oberfläche zwei W/m² abstrahlen – ein W/m² des Sonnenlichtes und ein W/m² der Einstrahlung aus der Atmosphäre. Auf der Grundlage des Verhältnisses der einfallenden Strahlung und der Strahlung von der Oberfläche können wir sagen, dass der Gesamt-Multiplikations-Faktor des perfekten Treibhauses 1,0 wäre (hier habe ich mehr dazu geschrieben).

Natürlich ist der Multiplikations-Faktor in der realen Welt geringer. Wir kennen den langzeitlichen mittleren Multiplikations-Faktor des Planeten. Wir können ihn berechnen, indem wir die mittlere ausgehende langwellige Strahlung von der Oberfläche durch die mittlere verfügbare Solarenergie dividieren. Die mittlere ausgehende langwelligen Strahlung macht 398 W/m² aus und die mittlere verfügbare Sonnenenergie 240 W/m². Daraus ergibt sich ein Treibhaus-Multiplikations-Faktor von 398/240 = 1,66.

Und da haben wir die Merkwürdigkeit: der mittlere Multiplikations-Faktor in Abbildung 8 beträgt 0,72, also deutlich weniger als 1,0. Weil dieser Multiplikator kleiner als eins ist, würde dies implizieren, dass es auf der Erde viel kälter ist als es in Wirklichkeit der Fall ist…

Wie können wir diesen offensichtlichen Widerspruch erklären? Für mich ist es ein Beweis für etwas, das ich schon viele Jahre lang gesagt habe, nämlich: Die Sensitivität der Temperatur an der Erdoberfläche auf die Menge der einfallenden Strahlung ist keine Konstante, wie es von Mainstream-Klimawissenschaftlern vertreten wird. Stattdessen ist es eine Funktion der Temperatur. Bei Temperaturen über dem Gefrierpunkt nimmt die ausgehende Strahlung um etwa drei Viertel eines W/m² zu für jedes zusätzlich einfallende W/m² der Sonnenstrahlung.

Aber wenn es ziemlich kalt ist, wie es in der Antarktis der Fall ist, reagiert die Oberflächen-Temperatur viel stärker auf Änderungen der einfallenden Strahlung. Die Situation in der Antarktis ist Folgende:

Abbildung 9: Wie in Abbildung 8, aber für die Verhältnisse in der Antarktis

Man beachte, dass diese Sensitivität nicht eine Folge des Abschmelzens von Festlands-Eis in der Antarktis und sich die damit ändernde Albedo ist. Fast die gesamte Antarktis ist das ganze Jahr über gefroren.

Wir können aber noch auf eine andere Art und Weise auf diese Situation schauen. Die Abbildungen 5 bis 9 zeigen die langfristigen Verhältnisse, im Grunde eine Steady-State-Situation, belegt durch die 68.400 Gitterzellen von 1° mal 1°, welche die Oberfläche des Planeten ausmachen. Anstatt dieses langfristige Mittel zu betrachten, können wir aber auch betrachten, wie sich die Dinge mit der Zeit ändern. Abbildung 10 zeigt die zeitliche Änderung der Temperaturanomalie über den Zeitraum der CERES-Satelliten-Beobachtungen im Vergleich zur Anomalie der mittleren Sonnenenergie an der TOA:

Abbildung 10: Monatliche langwellige Strahlung von der Oberfläche und mittlere Sonneneinstrahlung an der TOA.

Man erkennt, dass es abgesehen von Sprüngen der Oberflächenstrahlung während der warmen El Nino-Jahre von 2009/10 und 2016/17 eine enge Relation gibt mit dem verfügbaren Sonnenschein. Eine Kreuz-Korrelations-Analyse (hier nicht abgebildet) verifiziert, dass es keine zeitliche Verzögerung gibt zwischen Änderungen des solaren Eingangssignals und der Reaktion der Oberfläche.

Wir können auch die Natur der kurzfristigen Relation zwischen diesen beiden Variablen bestimmen mittels eines Scatterplots wie hier in Abbildung 11:

Abbildung 11: Scatterplot, monatliche Mittelwerte der an der TOA verfügbaren Sonnenstrahlung und der ausgehenden langwelligen Strahlung von der Oberfläche.

Wie zu erwarten war, ist der Trend in den monatlichen Änderungen der kurzfristigen Daten kleiner als das längerfristige Gitterzellen-Mittel in Abbildung 8 (0,58 vs. 0,72 W/m² Oberflächen-Änderung pro W/m²-Änderung der solaren Einstrahlung).

Schlussfolgerungen:

Alles in allem besteht die Reaktion der nicht gefrorenen Oberfläche auf zunehmende solare Einstrahlung in einer mittleren Zunahme der ausgehenden langwelligen Strahlung von etwa 0,7W/m² für jede Zunahme der verfügbaren Solarenergie um 1 W/m².

Unterhalb des Gefrierpunktes nimmt diese Reaktion mit abnehmender Temperatur zu, bis die Reaktion bei den typischen Antarktis-Temperaturen zwischen -20°C und -60°C etwa 5 W/m² für jede Zunahme der Solarenergie um 1 W/m² beträgt.

Mittels der Stefan-Boltzmann-Gleichung ergibt sich eine Änderung der Temperatur an der Oberfläche bei einer Änderung der langwelligen Ausstrahlung um 1 W/m² von etwa 0,2°C pro W/m² bei 0°C bis 0,16°C pro W/m² bei etwa 30°C.

Bei einer gegebenen Änderung der einfallenden Solarstrahlung von 0,7 W/m² würde dies zu einer Temperaturänderung im nicht gefrorenen Teil des Planeten von 0,11°C pro zusätzlichem W/m² bei 30°C und einer Erwärmung von 0,4°C bis 0,6°C pro zusätzlichem W/m² bei 0°C führen.

Die geschätzte Rückstrahlung bei einer Verdoppelung des CO2-Gehaltes beträgt 3,7 W/m². Dies würde zu einer Erwärmung von 0,4°C bis 0,6°C führen, falls die Sonneneinstrahlung um 3,7 W/m² zunehmen würde, abhängig von der Temperatur an der Oberfläche.

Und schließlich als Randbemerkung: die mittlere Änderung der von der TOA nach unten gehenden totalen Sonneneinstrahlung TSI infolge einer Änderung der Sonnenflecken-Aktivität ist von einer Größenordnung von 0,26 W/m² von Spitze zu Spitze. Allerdings stehen nur etwa 240/340 = 70% davon zur Verfügung, der Rest wird zurück ins Weltall reflektiert. Setzt man die Relation von 0,72 W/m² Änderung an der Oberfläche pro jedem zusätzlichen W/m² der an der TOA verfügbaren Sonnenenergie an sowie eine maximale Temperaturänderung pro Watt von 0,16°C pro W/m², würde dies eine maximale Auswirkung von 0,26 X 240/340 X 0,72 X 0,16 = 0,02°C aus jener Änderung der TOA-Strahlung ausmachen…

——————————————

DATA: This is all done with the CERES satellite TOA and Surface datasets, which are available here under the heading:

Energy Balanced and Filled (EBAF)

Climate Data Record (CDR) of monthly TOA fluxes and consistent computed surface fluxes and clouds suitable for analysis of variability at the intra-seasonal, inter-annual, and longer time scales.

Link: https://wattsupwiththat.com/2018/05/05/symmetry-and-balance/

Übersetzt von Chris Frey EIKE




Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

Das Gleichheitszeichen im S-B Gesetz stellt nun aber die physikalische Bedingung „gleichzeitig in einem thermischen Gleichgewicht“ dar und keineswegs eine mathematische Rechenanweisung, Zitat aus dem Handbook of Chemistry and Physics [1], 55thEdition 1974-1975, CRC Press 1974, Seite F-110:

Stefan-Boltzmann law of radiation – The energy radiated in unit time by a black body is given by, E=K(T4-T04), where T is the absolute temperature of the body, T0the absolute temperature of the surroundings, and K is a constant.

Das Stefan-Boltzmann-Gesetz bezieht sich also auf die Betrachtung eines einzelnen Schwarzen Körpers mit einer definierten Temperatur, aus der sich unmittelbar zum Betrachtungszeitpunkt dessen aktuelle Strahlungsleistung gegenüber der Umgebung ableitet. Das Stefan-Boltzmann-Gesetz ist also keine mathematische Rechenanweisung zur Umrechnung von räumlich und zeitlich beliebig ermittelter durchschnittlicher Temperaturwerte in durchschnittliche Strahlungswerte oder umgekehrt. Vielmehr verbindet es ausschließlich gleichzeitige Individualwerte von Strahlung und Temperatur eines ganz konkreten einheitlichen Schwarzen Körpers. Das Stefan-Boltzmann-Gesetz bildet also eine unmittelbar zeitgleiche physikalische Beziehung ab und darf mithin keinesfalls zur mathematischen Umrechnung von irgendwelchen zeitlich und/oder räumlich zusammengefassten Durchschnittswerten benutzt werden – wie das leider trotzdem immer wieder geschieht.

Wenn wir auf unserer Erde über Temperaturentwicklungen reden, dann beziehen wir uns aber gemeinhin genau auf solche Durchschnittswerte. Für die Zeit vor den ersten Thermometermessungen stehen uns nämlich nur sogenannte Temperaturproxys zur Verfügung, um die Paläotemperaturen unserer Erde für frühere Zeiträume abzuschätzen. Unter dem Begriff Temperaturproxy werden natürliche Abfolgen zusammengefasst, die über ihren jahreszyklischen Aufbau Informationen über diejenige Temperatur enthalten, bei der sie entstanden sind. Das bekannteste Beispiel sind Baumringe, es können aber auch Tropfsteine, Korallen, Sedimentabfolgen oder Eisbohrkerne sein.  All diesen Temperaturproxys ist gemeinsam, dass sich daraus meist nur durchschnittliche Jahreswerte ableiten lassen, die üblicherweise auch noch eine jahreszeitlich oder regional begrenzte Aussagekraft besitzen. Und es gibt Klimaphänomene, die sich dort ebenfalls abbilden, mit der Temperatur aber gar nichts zu tun haben und daher zu fehlerhaften Aussagen führen können, beispielsweise wirkt Trockenheit auf Baumringe ähnlich wie niedrige Temperatur.

Dem Paläoklima unserer Erde können wir uns also bestenfalls über Durchschnittswerte der Temperatur nähern, weil es für die geologische Vergangenheit eben nichts anderes gibt. Daher erhält auch die ominöse „gemessene“ globale Durchschnittstemperatur ein gewisses Gewicht. Diese Durchschnittstemperatur wird zwar an vielen Stellen erwähnt, aber wenn man dann versucht in die Tiefe zu gehen, werden üblicherweise irgendwelche Scheinbezüge hergestellt. Selbst wenn dort konkret zugrunde liegende Datensätze genannt werden, fehlt der eindeutige Hinweis auf das statistische „Kochrezept“, das auf diesen Datensatz angewendet worden sein soll, um zu dem genannten Ergebnis zu kommen. Die „gemessene“ globale Durchschnittstemperatur erweist sich damit als höchst spekulativ und wissenschaftlich nicht nachvollziehbar. Der Deutsche Wetterdienstbeschreibt die globale Durchschnittstemperatur folgendermaßen, Zitat:

Unter der globalen Durchschnittstemperatur versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum. Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen…

Die Angabe einer globalen Durchschnittstemperatur ist allerdings mit noch größeren Unsicherheiten behaftet als die Angabe von Abweichungen, da eigentlich kleinräumige Besonderheiten berücksichtigt werden müssten, während die Abweichungen räumlich einheitlicher sind. Daher werden bei den Zeitreihen meist nur die Abweichungen und nicht deren Absolutwerte angegeben.“

Diese Beschreibung geht nun also noch einen Schritt weiter, indem sie den Absolutbetrag der „gemessenen“ globalen Durchschnittstemperatur entwertet und irgendwelchen rechnerischen Differenzen eine geringere Unsicherheit zumisst. Das allerdings ist ganz große Zauberei, denn jede berechnete Differenz zu einem ungenauen Durchschnittswert ist natürlich vollautomatisch mit dessen Ungenauigkeit behaftet. Selbst bei der Beschränkung auf regionale Durchschnittswerte würde  bei kleinen Differenzen die relative Unsicherheit der Aussage ansteigen, beispielsweise ergibt sich allein bei einer Ungenauigkeit eines absoluten Messwertes von +/-0,5°C bereits eine Unsicherheit von +/-50% für einen auf dessen Basis ermittelten Differenzwert von 1,0°C.

Aber wie dem auch sei, es könnte tatsächlich eine gemessene globale Durchschnittstemperatur geben, wenn es ein ausreichendes globales Netz von ortsfesten primären Meßstationen geben würde, wenn von allen diesen Stationen eine ausreichend lange Zeitreihe vorliegen würde, wenn es ein wissenschaftlich abgestimmtes „Kochrezept“ für die statistische Berechnung gäbe, und wenn… wenn… wenn… Die Problematik solcher Temperaturmessreihen wird hierausführlich untersucht.

Und jetzt nehmen wir einfach einmal an, es gäbe eine solche gemessene globale Durchschnittstemperatur wirklich. Und daher lassen wir hier einfach einmal den vorgeblichen Wert von 14,8 °C für die gemessene globale Durchschnittstemperatur (NST) stehen, denn dieser Zahlenwert selbst hat auf die nachfolgende Betrachtung keinerlei Einfluss.

Schauen wir uns jetzt einmal an, was wir tatsächlich über den Klimamotor unserer Erde wissen:

  • Die Einstrahlung der Sonne erfolgt mit durchschnittlich 940 W/m² temperaturwirksamer Strahlung auf einer Kreisfläche mit dem Erdradius und beleuchtet die Tagseite der Erde.
  • Die Abstrahlung der Erdeerfolgt mit durchschnittlich 235 W/m² über ihre Gesamtfläche.
  • Die „gemessene Durchschnittstemperatur der Erde“(NST) soll im langjährigen Mittel 14,8 °C betragen.
  • Das Stefan-Boltzmann-Gesetzverknüpft Strahlung und Temperatur eines Schwarzen Strahlers im thermischen Gleichgewicht:
  • P / A = s*T4    mit  der Stefan-Boltzmann-Konstante  s= 5,670 10 -8[W m-2K-4]
  • und P = Strahlung [W], A = Fläche [m²], T = Temperatur [°K]

Anmerkung:Die hier dargestellte S-B Fassung repräsentiert den vereinfachten Fall (T0=0°K) des unter [1] beschriebenen vollständigen S-B Gesetzes, das in seiner ausführlichen Form auch als S-B Umgebungsgleichung bezeichnet wird.             

Und was fangen wir jetzt mit diesen Aussagen an?

Wir können die oben genannten Strahlungs-/ Temperaturwerte direkt miteinander in Beziehung setzen oder versuchen, ihnen mit dem Stefan-Boltzmann-Gesetz ihre jeweiligen S-B Äquivalente zuweisen:

  1. 940 W/m² @ Kreisfläche =  235 W/m² @ Kugelfläche      Globale Energiebilanz
  2. 235 W/m²~  -18 °C                          vorgeblich „natürliche“ S-B Temperatur der Erde (*)
  3. (940/2=)470 W/m² ~ +28,6 °C     rechnerische S-B Temperatur der Tagseite (*)
  4. 14,8 °C  ~  390 W/m²                       S-B Strahlungsäquivalent der Durchschnittstemperatur (*) 

Ergebnis: Alle mit (*) gekennzeichneten Aussagen verletzen das Stefan-Boltzmann-Gesetz!
Das S-B Gesetz beschreibt nämlich eine physikalisch eindeutige Verknüpfung von gleichzeitigen Werten von Strahlung und Temperatur für einen konkreten Schwarzen Körper. Wegen der diesem S-B Gesetz zugrunde liegenden T4-Beziehung lässt es keine mathematische Umrechnung von irgendwelchen durchschnittlichen Strahlungs- oder Temperaturwerten auf ein entsprechendes S-B Durchschnittsäquivalent zu. Daher muss beispielsweise eine Durchschnittstemperatur aus der Summe der beteiligten individuellen Ortstemperaturen ermittelt werden und nicht etwa aus dem Durchschnitt der individuellen örtlichen Strahlungswerte.

 (1) RICHTIG:Das wäre, unter der Voraussetzung einer langjährig konstanten gemessenen Durchschnittstemperatur, die durchschnittliche Energiebilanz unserer Erde. Der tatsächliche Ausgleich zwischen Ein- und Abstrahlung findet dabei über den gespeicherten Wärmeinhalt von Atmosphäre und Ozeanen statt. Dadurch ergibt sich bei der Abstrahlung eine permanente Zeitverzögerung über den Tages- und Jahresverlauf. Die aktuelle Sonneneinstrahlung wird also durch die Abstrahlung von Wärmeinhalten ausgeglichen, die teilweise schon längere Zeit von den globalen Zirkulationen verfrachtet worden waren. Aber insgesamt ist diese langjährige durchschnittliche Energiebilanz korrekt, solange die gemessene Durchschnittstemperatur tatsächlich konstant bleibt.

(2) FALSCH:Diese Berechnung ist falsch, weil sie die Gleichgewichtsbedingung des S-B Gesetzes missachtet und über eine Durchschnittsbildung mit der Nachseite der Erde die temperaturwirksame Sonneneinstrahlung willkürlich halbiert. Es wird üblicherweise versucht, diesen Ansatz dadurch zu retten, dass man dessen Differenz zur gemessenen Durchschnittstemperatur durch einen „natürlichen“ atmosphärischen Treibhauseffekt von 155 W/m² zu erklären sucht, für den es aber keinerlei wissenschaftlichen Nachweis gibt.

(3) FALSCH:Eine hemisphärische Betrachtung der globalen Temperaturgenese wäre eigentlich der richtige Ansatz. In dieser stark vereinfachten Form mit einer hemisphärischen Durchschnittsbildung widerspricht er jedoch dem Stefan-Boltzmann-Gesetz. Wenn man’s aber korrekt zu Ende denkt, landet man schließlich bei meinem hemisphärischen S-B Ansatz ohne Treibhauseffekt…

(4) FALSCH:Es gibt gar keine mittlere globale Abstrahlung von 390 W/m². Nur eine individuell gemessene Ortstemperatur von 14,8 °C hätte nach dem S-B Gesetz ein Strahlungsäquivalent von 390 W/m². Da sich die NST von 14,8 °C  aber aus der statistischen Bearbeitung von individuell gemessenen Ortstemperaturen zusammensetzt, müsste hier eine ebensolche statistische Mittelung über die jeweiligen örtlichen S-B Strahlungsäquivalente erfolgen. In der nachstehende Abbildung wird die globale Durchschnittstemperatur als ein Mittel aus +14,8°C +/- 35 °C betrachtet. Dabei stellen wir fest, dass sich die zugehörigen S-B Strahlungsäquivalente nicht proportional zu den Temperaturänderungen verhalten:

Wie bei einem T4-Gesetz zu erwarten ist, erhöht sich das individuelle S-B Strahlungsäquivalent mit ansteigenden Temperaturen überproportional. Wir erhalten für die ausgewählten Temperaturen damit folgende S-B Strahlungsäquivalente:

Eine beliebige symmetrische Temperaturverteilung um einen globalen Mittelwert von 14,8°C kann also niemals ein S-B Strahlungsäquivalent von 390 W/m² ergeben. Daher kann aus einem solchen falsch berechneten S-B Strahlungsäquivalent übrigens auch kein „natürlicher“ atmosphärischer Treibhauseffekt von 155 W/m² abgeleitet werden. Die hier vorgestellte einfache lineare Abschätzung aus 3 Einzelwerten liefert vielmehr rechnerisch einen „natürlichen“ Treibhauseffekt von

(413W/m²-235W/m²=) 178 W/m² anstelle der üblicherweise behaupteten 155 W/m²

und führt schon damit zu einem Widerspruch. Der „natürliche“ atmosphärische Treibhauseffekt resultiert also aus einer mangelhaften Kenntnis des Stefan-Boltzmann-Gesetzes, Zitat aus [1] zum ganz langsamen Mitdenken: „…energy radiated in unit time by a black bodywhere T is the absolute temperature of the body“. Das Stefan-Boltzmann-Gesetz ist demnach nur unmittelbar „just in time“ gültig, es dürfen damit also weder zeitlich noch räumlich zusammenfassende Durchschnittswerte verknüpft werden.
ABER:Die NST selbst stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN and OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten. Dieser quasi-konstante NST-Wert ist damit um die langjährige Ein-und Abstrahlung bereinigt worden und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun.Ihr tatsächlicher Wert spielt bei dieser Betrachtung also keine Rolle, und sein S-B Strahlungsäquivalent ist irrelevant.

Für den Fall, dass wir alle wetterabhängigen sowie tages- und jahreszeitlich variablen Prozesse auf unserer Erde in einer langjährigen Betrachtung als durchschnittlich ausgeglichen voraussetzen können, wie das bei einer konstanten NST ja der Fall sein sollte, lässt sich aus der richtigen Beziehung (1) und dem „ABER“-Kommentar zu (4) schließlich eine konkrete Aussage herleiten.

Die Gleichung für die globale Energiebilanz unserer Erde heißt damit:

(IN =940 W/m² *pR2)  =  (OUT = 235 W/m² *4 pR2)  @  NST (= 14,8 °C)

Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.




Was sind „Reisewarnungen“ des Auswärtigen Amtes wert?

Wir haben das im Orient erlebt. Da noch nicht alle Orientalen hier sind, muss der Zustand dort als „gefährlich“ hingestellt werden.

Ein anderes Beispiel ist Fukushima. Es nun mal ein Ziel der Merkel-Regierung, bei den dummen Deutschen Angst vor Genen, Kohlendioxid und Atomen zu erzeugen.

Dosisleistungen wie im Flugzeug, nämlich 3 Mikrosievert pro Stunde, werden nur noch an einigen Punkten überschritten. Dort würde man sich nicht allzu lange aufhalten. Im Sperrgebiet Tschernobyl gibt es aktivere Stellen. Ich war mehrmals dort und habe immer eine geringere Gesamtdosis erhalten als auf dem sehr viel kürzeren Flug nach Kiew.

Vor dem ganzen Gebiet von Fukushima zu warnen, kann nur den Zweck haben, unbegründet Angst zu erzeugen.

 




„Staub des Todes“

„Staub des Todes“

Das ist ein beliebtes Prinzip in der Demagogie, denn der flüchtige Leser sieht in der Überschrift Tod und Verderben nach dem Motto „Bad News are good News“, im Text wird das ganze wieder zurückgenommen. Im vorliegenden Fall wird durch das Wort Uran die Botschaft verkündet: es geht um die Festigung der Strahlenangst, die ja letztlich die Triebkraft zu Deutschlands Ausstieg aus der besten Stromversorgung bildet.

 

Was ist mit „Staub des Todes“ gemeint?

Geschosse haben eine hohe Durchschlagskraft, wenn sie schwer sind und auf kleiner Fläche wirken. Daher sind in der Munition Elemente mit hohem spezifischem Gewicht sehr geeignet, also Blei. Einige Elemente haben aber noch etwa das doppelte spezifische Gewicht von Blei, das sind Wolfram, Rhenium, Osmium Iridium, Platin, Gold und auch Uran. Von diesen Stoffen ist gerade Uran verfügbar und zwar die abgereicherte Komponente aus den Anreicherungsanlagen, die nur noch eine Restmenge spaltbares U-235 enthält. Dieses ist zudem billig, daher hat man es in Munition eingebaut und diese in Kriegen auch benutzt. Es wird gesagt, daß Urangeschosse sich beim Aufprall pulverisieren und dieses Pulver in der Luft dann den tödlichen Staub ergibt. Der Bericht in DIE WELT sagt im Text klar und deutlich, daß bei der Verwendung uranhaltiger Munition in Kriegsgebieten noch nie eine Belastung der Luft oder gesundheitlicher Schaden bei den Soldaten festgestellt wurde.

 

Deutsche Fachleute haben Spurenanalytik des Urans betrieben und dazu berichtet [1].

Dieser exzellente Bericht der Fachleute vom GSF-Forschungszentrum (heute Helmholtz-Gesellschaft) enthält alle Meßdaten und gibt einen umfassenden Überblick zum Problem:

Uran ist als seltenes Element überall in der Umwelt vorhanden, in der Erdkruste kommt es mit einem mittleren Masseanteil von 3 bis 4 * 10-4% vor. Das bedeutet, in einem normalen Grundstück von 500 m² Fläche befinden sich in der obersten ein Meter dicken Bodenschicht 3 bis 4 kg Uran. Das allgegenwärtige Uran wird zu einem kleinen Anteil von Pflanzen aufgenommen, und wir finden es in unserem Speisen und Getränken. Im Mittel nimmt ein Mensch so täglich 1 Mikro-Gramm Uran in seinen Körper auf, und scheidet es auch wieder aus. Die Konzentrationen von Spurenelementen schwanken sehr stark in der Natur, daher können die hier genannten Werte für Uran im Einzelnen durchaus eine Größenordnung kleiner wie auch größer sein. Die Messungen in [1] belegen das.

 

Unsere Welt ist voller Radioaktivität.

Überall befinden sich radioaktive Nuklide. In der Luft ist es hauptsächlich das Edelgas Radon mit 20 Becquerel/m³ Luft im Freien und 50 Becquerel/m³ Luft in Innenräumen. Im Stollen des Heilbades Bad Kreuznach sind es 40 000 Becquerel/m³ im Stollen. Die alpha-Strahlung des Radons sorgt für die Heilwirkung.

Im Erdboden ist am meisten Radioaktivität enthalten, es sind ca. >2000 Becquerel/kg Erde.

Man kann berechnen, wie viel Radioaktivität der Mensch in einem Jahr von den wichtigsten Nukliden in seinen Körper aufnimmt:

durch Uran als Spurenelement in der Nahrung                     10 Becquerel

durch lebensnotwendiges Kalium-40 mit Nahrung    30 000 Becquerel

durch Kohlenstoff-14 mit Nahrung                             25 000 Becquerel

durch das Edelgas Radon in der Atemluft                 250 000 Becquerel

durch Radon-Zerfallsprodukte in der Atemluft                       350 000 Becquerel

Die Zahlen zeigen, daß die Strahlung des Urans neben den anderen Stoffen getrost vergessen werden kann.

In einem normalen Grundstück von 500 m² Fläche befinden sich in der oberen einen Meter dicken Bodenschicht 3 bis 4 kg Uran. Wenn man die Schwankungsbreite der Urankonzentration in der Erdkruste berücksichtigt, kann man auch von 0,3 kg bis 30 kg sprechen. Durch ein Urangeschoss auf dem Grundstück wird die gesamte Menge um etliche Gramm erhöht. Das ist angesichts des vorhandenen gesamten Urans meist im Bereich von kg belanglos.

Geschosse sind immer für Menschen extrem gefährlich, denn sie können davon getroffen werden. Das Material der Geschosse – Blei oder Uran – ist fast nebensächlich. Der „Staub des Todes“ ist eine konstruierte hypothetische Gefahr, die aus demagogischen Gründen erfunden wurde, um die Strahlenangst als treibende Kraft zum Ausstieg aus der Kernkraft zu erhalten.

In der Strahlenschutzverordnung [2] werden Grenzen die erlaubten Grenzwerte für die zulässige jährliche Aktivitätszufuhr durch Verspeisen angegeben, das sind 25gfür lösliche Uranverbindungen und 250gfür unlösliche Uranverbindungen (z.B. der Kernbrennstoff UO2). — Niemand wird jemals so viel Uran verspeisen, und Staub in der Luft im Bereich von Millionstel Gramm ist bedeutungslos.

 

Auch abgereichertes Uran ist ein Wertstoff

Im abgereicherten Uran ist nur noch eine kleine Restmenge von ca. 0,2% spaltbares Uran-235 enthalten, der Rest ist nicht spaltbares Uran-238. Häufig wird daher das abgereicherte Uran als Abfall bezeichnet. Diese Sichtweise ist falsch. Im Leichtwasserreaktor – wie er in Deutschland betrieben wird – wird aus dem U-238 durch Neutroneneinfang Plutonium erbrütet, und das ist auch spaltbar. Daher ist auch der Leichtwasserreaktor zu einem geringen Anteil ein Brüter, etwa ein Drittel der Energie wird im normalen Betrieb aus der Spaltung von Plutonium gewonnen.

Beim Schnellen Brüter und mit vollständigem Brennstoffkreislauf kann auch das abgereicherte Uran nach Überführung in Plutonium gespalten werden und die Reichweite des Urans auf über das 100-fache erhöht werden. In Deutschland sollte diese Technik entwickelt und benutzt werden, allerdings wurde das Programm von der Politik gestoppt (Kalkar, Wackersdorf).

Heute ist Rußland führend beim Brüterprogramm (Stichwort: BN-600 und BN-800), andere Staaten wie China und Indien folgen. In Rußland wird abgereichertes Uran aus westlichen Anreicherungsanlagen (z.B. in Gronau) gehortet und gelagert, bis es in ferner Zukunft im Brüter zum Einsatz kommen kann. Das ist eine kluge Wirtschaftspolitik, weil sie sehr weit voraus denkt.

 

Es ist klug, das abgereicherte Uran aufzuheben, und nicht durch Geschosse wieder in der Umwelt zu verteilen, aus der es ursprünglich durch Bergbau mit viel Aufwand entnommen worden ist.

 

Durch die direkte Endlagerung tief unter der Erdoberfläche von abgebrannten Brennelementen ohne Wiederaufarbeitung – wie es in Deutschland durch Gesetz festgelegt ist – wird in der Tiefe ein Rohstofflager für Energie geschaffen, das in ferner Zukunft wieder an die Oberfläche geholt werden muß, denn diese Energie ist zum Leben dringend notwendig. Der in Deutschland von der Politik favorisierte „Der Übergang vom atomaren und fossilen Zeitalter ins Solarzeitalter“ hat keine Aussicht, jemals gelingen zu können.

 

Literatur

[1] P. Roth, E. Werner, H.G. Paretzke; “Untersuchungen zur Uranausscheidung im Urin“, Deutsches Heereskontingent KFOR, Januar 2001, GSF-Bericht 3/01

[2] Strahlenschutzverordnung1989, wird demnächst durch ein Strahlenschutzgesetzabgelöst, mit vermutlich strengeren Bestimmungen

 




Gibt es Strahlengefahr durch Röntgen der Hand?

Das Gesetz verlangt, Menschen nicht unnötig ionisierenden Strahlen auszusetzen. Jede unnötige Strahlenexposition ist auch unterhalb der gesetzlichen Grenzen zu vermeiden (§ 28 der Strahlenschutzverordnung). Beim Röntgen wird die Hand der Strahlung ausgesetzt. Gibt es dadurch ein Risiko für die Gesundheit des jungen Menschen?

Bei dieser Maßnahme wird die Hand mit einer Strahlendosis von ca. 0,1 Milli-Sievert beaufschlagt — ist das nun viel oder ist das wenig? Hier drei Vergleiche, um diese Strahlendosis einordnen zu können:

  1. Bei einem Flug von Deutschland in die westlichen Regionen der USA oder nach Japan über die Polarregion hinweg werden die Menschen im Flugzeug ebenfalls einer Strahlendosis von 0,1mSv ausgesetzt, und zwar mit dem GANZEN Körper, und nicht nur mit einem Teilbereich wie z.B. der Hand [1].
    Jedermann darf sich nach Belieben ins Flugzeug setzen, niemals wird dabei von einem Risiko für die körperliche Unversehrtheit durch Strahlung gesprochen!!!
  2. Bei einer Radonkur bekommt der Patient eine Strahlendosis im Bereich von 1 bis 10 Milli-Sievert, also 10 bis 100-fach mehr als bei der Handdurchleuchtung. Diese Dosis bewirkt die gewünschte Heilung. Allein in Deutschland gibt es 8 Radonheilbäder, und in der EU profitieren pro Jahr etwa 80 000 Patienten von der nützlichen Wirkung der Strahlung durch die Radioaktivität des Radon.
    Bei der Radonkur wirkt die Strahlung ebenfalls nicht nur lokal wie beim Röntgen, sondern je nach Art der Kur auf den GANZEN Körper. Das ist kein RISIKO, sondern das ist nützlich für die Patienten. Also kann der 10-te Teil dieser Strahlung kein Risiko darstellen!!!
  3. Nach einer Krebs-OP erfolgt in der Regel eine Chemotherapie und Strahlentherapie. Bei der Strahlentherapie werden im allgemeinen über 6 Wochen hinweg täglich Organdosen von 2 Sievert gegeben. In der Summe sind es meist rund 60 Sievert, also das 600 000-fache einer Handdurchleuchtung. Das Krebsgewebe im Inneren des Körpers wird bekämpft, dabei wird auch das umliegende gesunde Gewebe getroffen. Dazu heißt es im Deutschen Ärzteblatt: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren“ [2].
    Jedes Jahr werden in Deutschland 200 000 Krebspatienten oder mehr auf diese Weise behandelt, das ist ein Teil der heilenden Therapie. Der 600 000-ste Teil davon kann kein Risiko sein!!!

Aus den hier genannten Angaben zur Dosis in den drei Punkten geht unzweideutig hervor, daß das Röntgen der Handwurzelknochen niemals eine Gefahr darstellen kann. Damit kann die Diskussion um die Strahlengefahr beim Röntgen abgeschlossen werden, denn es gibt KEINE Gefahr. Es ist aber noch auf die nützliche Strahlenwirkung wie z.B. bei den Radonkuren einzugehen.

 

Strahlenschützer contra Strahlenbiologen

Die Strahlenbiologen wissen seit langen Zeiten, daß ionisierende Strahlung im Bereich niedriger Dosis bei niedriger Dosisleistung die körperlichen Abwehrkräfte trainiert, und damit für die Gesundheit von Lebewesen nützlich ist. Die oben genannten Radonkuren sind ein starkes Argument dafür. Durch einseitige Berichterstattung in den öffentlichen Medien wurde hingegen die „StrahlenGEFAHR“ in den letzten etwa 80 Jahren weltweit in die Gehirne der Menschen eingebrannt. In Deutschland haben sich die Professoren Klaus Becker (†) und Ludwig E. Feinendegen immer wieder in Fachbeiträgen zu Wort gemeldet, ihre Berichte wurden in den Fachmedien atw (= Atomwirtschaft, die Fachzeitschrift der Kerntechnische Gesellschaft) und SSP (= StrahlenschutzPRAXIS, Fachzeitschrift vom Fachverband Strahlenschutz Deutschland – Schweiz) abgedruckt, mit NULL Resonanz in den Printmedien und elektronischen Medien.

Öffentliche Aufmerksamkeit erhielten dagegen oft die Strahlenschützer, zum Beispiel Professor Edmund Lengfelder vom Umweltinstitut München. Strahlenschützer werden dafür bezahlt, vor Strahlen zu schützen. Daher müssen Strahlen doch gefährlich sein??? Diese Schlußfolgerung ist zwar naheliegend, aber dennoch falsch, denn es muß immer die Strahlendosis dazu benannt werden (Paracelsus). Eine öffentliche Diskussion zwischen Strahlenschützern und Strahlenbiologen fand nie statt. Diese ist jedoch erforderlich, um RICHTIG und FALSCH unterscheiden zu können. Natürlich gibt es seltene Ausnahmen, zu nennen sind zum Beispiel zwei Berichte vom SPIEGEL [3].

 

Dosis und Dosisleistung ist zu beachten

Es ist wie beim Alkohol, eine hohe Dosis in kurzer Zeit ist schädlich, z.B. eine Flasche Schnaps – das ist eine letale Dosis – schnell hinunter gekippt. Täglich ein Mon Chéri über ein ganzes Jahr bedeutet auch die Inkorporation einer „letalen Dosis“, sie wirkt aber nicht schädlich, weil sie über die Zeit verteilt ist. Es gibt andererseits auch gesundheitlich positive Effekte durch Alkohol, hin und wieder ein Gläschen Rotwein oder ein Glas Bier ist der Gesundheit förderlich. Es gibt bei Alkohol in ähnlicher Weise wie bei Strahlung Bereiche, wo Gefahr zu befürchten ist oder wo Nutzen zu erwarten ist.

Aus den Arbeiten von Strahlenbiologen [4] wurde eine Übersicht zum Strahlenpegel zusammengestellt:

Darstellung der Strahlenpegel mit den Bereichen:

  1. Normale Umwelt ohne erkennbare Wirkung
  2. Nützliche Wirkung bei 1000-fach höherem Strahlenpegel, Empfehlung von Doss und Luckey (blaue Pfeile) und Sanders [5] 40 bis 800 Mikro-Sievert pro Stunde
  3. Gefahr bei 100-Millionen-fach höheren Strahlenpegel als normal

 

Die nützliche Strahlenwirkung wird nur dann erreicht, wenn sich die Menschen genügend lange an den Orten mit höherem Pegel aufhalten. Das ist im Flugzeug oder an den wenigen kleinen Stellen mit erhöhter Bodenstrahlung wie in Ramsar, Guarapari, Kerala nicht der Fall. Allein beim Kobalt-60-Ereignis in Taiwan [6] und im Weltraum war es durch langen Aufenthalt der Fall [7], dort wurden deutliche bzw. gigantische Effekte beobachtet: In Taiwan wurde das Krebsrisiko fast bis auf NULL reduziert.

 

Was ist zu tun?

Es ist dringend erforderlich, die Erkenntnisse der Strahlenbiologen zur Wirkung ionisierender Strahlung zum Wohle der Menschen zu beachten. Bei einem Strahlenpegel, der beim 1000-fachen des natürlichen Pegels liegt, sind erstaunliche positive Gesundheitseffekte zu erwarten. Den Strahlenbiologen ist dieses seit langem bekannt. In der Natur wird den Menschen nirgends ein 1000-fach höherer Strahlenpegel geboten, nur mit Hilfe der Technik gibt es Möglichkeiten, dieses zu erreichen. In Taiwan ist das in glücklicher Weise geschehen. Die Strahlenschutzgesetze verbieten den Menschen jede Zusatzdosis und damit wird ihnen das Recht auf eine beste Gesundheit (Art. 2 GG) verweigert. Luckey sagte das bereits vor etwa 30 Jahren, es ist aber nichts passiert. Es ist eine Änderung der Strahlenschutzprinzipien erforderlich, und das ist auch genau das, was 2015 in einer Petition von Carol S. Marcus, Mark L. Miller und Mohan Doss an die NRC (Nuclear Regulatory Commission in USA) vorgeschlagen wurde [7].

 

Beim Betrieb von Kernkraftwerken ist es oberstes Gebot, jede Einwirkung von Strahlung auf Menschen zu vermeiden. Dadurch wird den Menschen eine nützliche Zusatzdosis verweigert. Die positiven Gesundheitseffekte wurden in der Anfangszeit bis ca. 1970 auch beobachtet, man nannte es den „Healthy Workers Effect“. Die „Todeszonen“ von Tschernobyl und Fukushima sind Zonen einer besseren Gesundheit, wenn man es den Menschen erlauben würde, dort zu leben.

Gesetze können falsch sein, denn sie werden von Menschen gemacht und Menschen können irren. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall, und viele Fachleute der Strahlenbiologie protestieren gegen diese Gesetze [4]. Die Strahlenschützer sehen das anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Medien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich.

 

Literatur

[1] Flug von Europa nach Japan und zurück: Strahlendosis = 0,14 Milli-Sievert, Prof. Wernli, PSI, Schweiz

[2] Deutschen Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[3] „Legenden vom bösen Atom“, SPIEGEL, 47/2007 und „Schön verstrahlt”, SPIEGEL, 17/2016

[4] Feinendegen, Becker, Calabrese, Cuttler, Luckey, Cohen, Doss, Tubiana, Muckerheide, Allison, Jaworowski, Sanders, Marcus, Miller, Winsor, Chen, und viele andere

[5] Ch. L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, Springer-Verlag 2010

[6] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/

[7] DIE WELT vom 2.2.2017 auf Seite 1, „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“

[9] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057