1

Die dunkle Seite unserer Erde und der meridionale Energietransport

Wikipedia: Earthrise, Farbbild, von Bill Anders – gemeinfrei

 

von Uli Weber

Erst ein sogenannter „natürlicher atmosphärischer Treibhauseffekt“ (THE) von konstant 33°C als Differenz zwischen einer physikalisch fehlerhaft mit dem Stefan-Boltzmann-Gesetz berechneten globalen „Gleichgewichtstemperatur“ von -18°C und einer gemessenen Durchschnittstemperatur von 15°C soll unsere Erde bewohnbar machen. Dabei wird unterstellt, dass die Erde durch eine antiphysikalische atmosphärische Gegenstrahlung ihrer eigenen IR-Abstrahlung von kalt zu warm noch weiter erwärmt werden soll.

Wir haben für den vorgeblichen THE also angeblich die folgende Wirkungskette:

  • Primär: Solare HF-Einstrahlung
  • Sekundär: Terrestrische IR-Abstrahlung
  • Tertiär: Atmosphärische IR-Gegenstrahlung (THE) der terrestrischen IR-Abstrahlung

Je weiter man sich aber zur Sonnenwende dem Winterpol der Erde nähert, umso länger werden die Nächte; zum Sommerpol hin werden die Nächte dagegen immer kürzer. Offenbar hat beides keinen Einfluss auf den vorgeblich konstanten THE von 155 W/m², obwohl die tageszyklische Menge primärer Energie, das Sonnenlicht, vom Sommerpol zum Winterpol hin stark abfällt. Dieser Umstand hat aber sicherlich erhebliche Auswirkungen auf die terrestrische Abstrahlung und müsste damit wiederum zwingend Rückwirkungen auf den sogenannten THE haben. Denn wenn die sogenannte atmosphärische Gegenstrahlung von der terrestrischen Abstrahlung gespeist wird, dann spielen die spezifische Strahlungsleistung der Sonne und der Zeitraum der nächtlichen Dunkelheit eine elementare Rolle für die Größe des sogenannten THE haben. Überall dort, wo kein Sonnenlicht einfällt (Winterpol), müsste sich ein solcher THE dann immer weiter bis auf null reduzieren.

Die Temperaturverteilung auf unserer Erde stellt ein eingeschwungenes System dar. Die „Wärmespeicher“ unserer Erde, Atmosphäre und Ozeane, sind im Einklang mit der aktuellen terrestrischen Albedo gefüllt und die solare Einstrahlung muss bei gleichbleibender globaler „Durchschnittstemperatur“ lediglich den täglichen Abstrahlungsverlust ersetzen. Im herkömmlichen THE-Paradigma wird der Nachtseite der Erde aber eine Temperatur von 0 Kelvin zugerechnet, um die THE-Argumentation zu stützen. Doch nicht einmal am winterlichen antarktischen Kältepol werden 0 Kelvin erreicht, die tiefste dort jemals gemessene Temperatur beträgt vielmehr knapp (-100°C).

C:\Users\Uli\Documents\Ablage & Archiv\Veröffentlichungen\2022\Material\Eschenbach.png Abbildung: Globale Durchschnittstemperaturen 2000 – 2020
Quelle: Willis Eschenbach mit Daten der NASA

Die Erde entstand vor 4,6 Milliarden Jahren als heißer Glutball aus dem Sonnennebel. Nach Differenzierung unterschiedlich dichter Materialien und Abkühlung entwickelte sich eine feste Oberfläche, auf der später die Ozeane entstanden. Unsere Erde ist also so lange abgekühlt, bis sich Einstrahlung und Abstrahlung bei einer bestimmten Albedo und einer damit vorgegebenen Temperaturverteilung gerade ausgeglichen haben. Diese Temperaturverteilung ist nicht konstant, sondern schwankte mit der Albedo über Warm- und Kaltzeiten; einen möglichen Wirkmechanismus hatte ich hier skizziert. Temperaturschwankungen des Klimas können demnach nur durch eine Veränderung der solaren Einstrahlung oder der Albedo unserer Erde verursacht werden. Das S-B-Temperaturäquivalent der solaren Einstrahlung schwankt auf unserer Erde zwischen maximal ca. 394 Kelvin (ca. 121 °C ohne Albedo) bei vertikalem Sonnenstand und 0 Kelvin auf der Nachtseite. Das heißt nun aber nicht, dass auf der Nachtseite 0 Kelvin herrschen würden, wie es das THE-Paradigma voraussetzt. Die sogenannte „gemessene globale Durchschnittstemperatur“ (NST) von etwa 15°C wird vielmehr über die gemessenen Temperaturen aller Breitenkreise auf der Tag- und Nachtseite sowie Frühling, Herbst und Winter ermittelt. Etwa die Hälfte der gemessenen Datenpunkte stammt also immer von der Nachtseite. Die NST ist also die „gemessene Durchschnittstemperatur“ der gesamten Erde. Irgendeine Nachttemperatur von 0 Kelvin hat es auf unserer Erde niemals gegeben. Wir leben vielmehr in einem „eingeschwungenen“ Temperatursystem, in dem sich Ein- und Ausstrahlung die Waage halten. Die Temperaturen der Tagseite, insbesondere die der Wärme speichernden Ozeane, werden im 24h-Tagesverlauf auf die Nachtseite mitgenommen und fungieren hier als Wärmespeicher mit mäßiger Abkühlung, deren Energie durch die atmosphärischen Strömungen auf die Landmassen übertragen wird.

Für jeden originären örtlichen Temperatur-Datenpunkt, der dieser Abbildung zugrunde liegt, sind also die dort tatsächlich gemessenen Temperaturen von Tag und Nacht sowie Frühling, Sommer, Herbst und Winter als einzelner Mittelwert über mehr als zwanzig Jahre eingegangen. Dabei spielt der meridionale Energietransport aus Tropen und Subtropen in die Polarzonen hinein eine ganz wesentliche Rolle. Die nachfolgende Abbildung hatte ich schon in vielen Artikeln zur Beweisführung für meinen hemisphärischen S-B-Ansatz herangezogen, und zwar zuerst in dem Artikel, „Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!“ (2017):

https://eike-klima-energie.eu/wp-content/uploads/2019/11/ana2_1-640x401.png

Abbildung: „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite“ nach HÄCKEL, H. (1990): Meteorologie. – 8. Aufl. 2016; Stuttgart (Verlag Eugen Ulmer), ISBN 978-3-8252-4603-7)

Dieser meridionale Energietransport auf unserer Erde wird ausführlich von Javier Vinós & Andy May im Teil 3 ihrer Wintergate-Hypothese beschrieben. Dort wird in Abbildung 3.5 dessen Funktionsweise dargestellt:

Javier Vinós & Andy May – Abbildung 3.5 mit Text: Meridionaler Transport von Energie (links) und Drehimpuls (rechts), der sich aus dem beobachteten Zustand der Atmosphäre ergibt. https://eike-klima-energie.eu/wp-content/uploads/2022/08/sun_05-1.png

Erklärung, Zitat Vinós & May:Im Energiehaushalt gibt es einen Netto-Strahlungsgewinn in den Tropen und einen Netto-Verlust in hohen Breitengraden. Um den Energiehaushalt in jedem Breitengrad auszugleichen, ist ein polwärts gerichteter Energiefluss erforderlich, wie in Abb. 3.5 dargestellt. Im Drehimpulshaushalt gewinnt die Atmosphäre in niedrigen Breiten durch östliche Oberflächenwinde Drehimpuls und verliert ihn in den mittleren Breiten durch westliche Oberflächenwinde. Ein polwärts gerichteter atmosphärischer Drehimpulsfluss ist impliziert. Es ist bekannt, dass der meridionale Energie- und Impulstransport durch ENSO, die quasi-bienniale Oszillation und die Sonnenaktivität moduliert wird. Abb. 3.5 ist nach Marshall & Plumb 2008

Bei diesem meridionalen Transport kommt es zu einem Paradoxon:

In den polaren Zonen unserer Erde trifft der Energietransport aus niederen Breiten auf tiefgründigen Permafrost.

Die nachstehende Abbildung zeigt den Permafrost auf der Nordhalbkugel:

https://wiki.bildungsserver.de/klimawandel/upload/Permafrost_NH.jpgAbbildung: Ausdehnung von Permafrost auf der Nordhalbkugel: terrestrischer und submariner Permafrost. Blauabstufungen: zusammenhängender Permafrost, unzusammenhängendes Vorkommen, sporadisches Vorkommen, isolierte Flecken, submariner Permafrost
Quelle: European Environment Agency (2017): The Arctic environment. European perspectives on a changing Arctic Lizenz: © European Environment Agency, 2017, “Reproduction is authorised provided the source is acknowledged.”

Nachfolgend eine Erklärung zum Vorkommen von Permafrost aus Wikipedia mit Hervorhebungen:

Permafrost bildet sich zumeist dort, wo die Jahresdurchschnittstemperatur −1 °C und der Jahresniederschlag 1000 Millimeter nicht übersteigen. Die großen Permafrostareale der Erde liegen daher in den Polargebieten mit den arktischen und antarktischen Tundren, in Teilen der borealen Nadelwaldgebiete, aber auch in anderen Gebieten, welche die Voraussetzungen für Permafrost erfüllen, so die meisten Hochgebirge der Erde. Als Permafrostzone bezeichnet man das zirkumpolare Gebiet ewiger Gefrornis, das die Tundra der Nordkontinente, die großen Waldgebiete sowie offshore Zonen des Meeresbodens umfasst. Grönland liegt zu 99 %, Alaska zu 80 %, Russland zu 65 %, Kanada zu 40 bis 50 % und China bis zu 20 % in der Permafrost-Zone.[21] Nach Süden reichen einige Permafrostgebiete bis in die Mongolei. Dabei bedeutet eine Lage innerhalb der Permafrost-Zone nicht automatisch eine Unterlagerung mit Permafrost für jeden individuellen Standort, sondern man unterscheidet Zonen kontinuierlichen (>90 Flächenprozent), diskontinuierlichen (>50–90 Flächenprozent), sporadischen (>10–50 Flächenprozent) und isolierten (<10 Flächenprozent) Permafrosts.
Auch dringt der Permafrost unterschiedlich tief in den Untergrund ein:
In Sibirien werden Tiefen bis zu 1500 Metern erreicht, in den zentralen Teilen Skandinaviens oft nur etwa 20 Meter. Gründe dafür liegen in der großen Kontinentalvergletscherung der letzten Eiszeit (Weichsel-Kaltzeit): Sibirien hingegen war nicht in größerem Maße vergletschert, daher war der Untergrund der Kaltluft ausgesetzt, so dass er bis in sehr tiefe Lagen gefrieren konnte. Hingegen war der Kernbereich Skandinaviens durch einen mächtigen Eisschild isoliert, wodurch der Permafrost nicht so tief eindringen konnte.“

Der Permafrost kann also bis zu 1.500 Meter tief in die Erdkruste hineinreichen. Wie kann das sein? Offensichtlich reicht die Isolierung durch die Atmosphäre nicht aus, damit der Wärmefluss aus dem heißen Erdinneren den Erdkörper bei fehlender/geringer Sonneneinstrahlung bis an die Oberfläche über den Gefrierpunkt von Wasser erwärmen kann. Der Unterschied zwischen den Polarregionen und der übrigen Erdoberfläche besteht im Wesentlichen in der Sonnenscheindauer und deren Intensität. Wenn unsere Erde also nicht von der Sonne beheizt werden würde, dann hätten wir tatsächlich überall eine „Snowball-Earth“ mit einem sehr tief reichenden Permafrost. Erstaunlich ist, dass das Thema Permafrostbildung bis heute keinerlei Eingang in die Kritik an einem vorgeblich konstanten „natürlichen atmosphärischen Treibhauseffekt“ gefunden hat. Auch die Protagonisten der Wintergate-Hypothese haben sich an den Treibhauseffekt nicht herangetraut. In dem Artikel „Die Winterpförtner-Hypothese VII: Eine Zusammenfassung und ein paar Fragen“ äußern sich Vinós & May schließlich auch zu Fragen aus der Kommentarfunktion von WUWT. Gleich Frage 2 bezieht sich auf den sogenannten „natürlichen atmosphärischen Treibhauseffekt“, Zitat aus der deutschen Übersetzung auf EIKE:

F: Ist der Treibhauseffekt für die Winter-Gatekeeper-Hypothese erforderlich?

A: Ja. In einem Gedankenexperiment wurde dem Leser vorgeschlagen, sich vorzustellen, dass die Polarregionen ein anderer Planet (B) sind, der mit einem Planeten A verbunden ist, der aus den Tropen und den mittleren Breiten besteht. Die Verbindung ermöglicht die Übertragung von Wärme. Der Treibhauseffekt auf Planet B ist schwächer, da seine Atmosphäre einen geringen Wasserdampfgehalt aufweist. Während 6 Monaten im Jahr liegt Planet B im Dunkeln. Lässt man mehr Energie zu diesem Planeten durch, wird sie effizienter in den Weltraum abgestrahlt und die Durchschnittstemperatur des Binärsystems sinkt, obwohl sich Planet B erwärmt. Das Gegenteil ist der Fall, wenn weniger Energie durchgelassen wird.“

Diese Antwort hinkt gewaltig auf allen Beinen, denn nach herkömmlicher Ansicht ist der THE konstant. Jedenfalls ist dem Autor keine Grafik bekannt, die eine variable THE-Verteilung auf unserer Erde darstellt, und auch Vinós & May liefern keinen entsprechenden Nachweis. Der meridionale Energietransport ist vielmehr, ganz ohne THE, zwingend über die herrschenden Temperaturunterschiede zwischen Tropen und Polarregionen verknüpft. Stellen Sie einfach einmal einen großen Topf mit Wasser auf eine zu kleine Kochplatte. Das Erhitzen des Wassers findet nur im Zentrum des Topfes statt, wobei an seiner Außenwand auch noch die größte Abkühlung stattfindet. Es entsteht dadurch eine radiale Zirkulation des Wassers. Die Aussage der Autoren ist daher wohl eher dem Umstand geschuldet, dass jeder, der den vorgeblichen THE bezweifelt, von 97 Prozent der Menschen als Spinner abgetan wird. Und daher waren die Autoren wohl auch gezwungen, den klimapolitischen THE-Geßlerhut zu grüßen, um ihr Modell nicht zu beschädigen.

Schleierhaft bleibt allerdings, warum die Autoren in den F/A eine Abhängigkeit ihrer Wintergate-Hypothese von den Schwankungen der solaren Einstrahlung ausdrücklich bestreiten, Zitat aus Antwort 3:

F: Warum gibt es keine Korrelation zwischen Oberflächentemperatur und Sonnenaktivität, wenn die Hypothese wahr ist?

A: Weil es keine Korrelation geben sollte. Auf der multidekadischen Skala reagiert der meridionale Transport hauptsächlich auf die multidekadische Ozean-Atmosphären-Oszillation. Auf der zwischenjährlichen Skala haben die Quasi-Biennial-Oszillation und die El Niño/Southern Oscillation einen starken Einfluss. Die Sonne ist auf diesen Zeitskalen nicht dominant. Die Rolle der Sonne nimmt mit zunehmender Länge der Zeitskala aufgrund ihrer längerfristigen säkularen Zyklen und ihrer längerfristigen kumulativen Wirkung zu.“

Diese Aussage wird dadurch auch nicht besser, dass es im Text der Zusammenfassung in Kapitel 7.3 heißt, es gäbe eine negative Korrelation der arktischen Temperatur mit der Sonnenaktivität, Zitat:

Die plausibelste Erklärung für die negative Korrelation der arktischen Temperatur mit der Sonnenaktivität ist, dass Veränderungen der Sonne den meridionalen Transport regulieren. Eine Zunahme der Sonnenaktivität verringert den Transport und kühlt die Arktis ab, und eine Abnahme der Sonnenaktivität erhöht den Transport und erwärmt die Arktis. Der Effekt auf die Temperatur in den mittleren Breiten ist das Gegenteil.“

Es ist schwer, diese beiden divergierenden Aussagen sinnstiftend zusammenzubringen. Insbesondere auch deshalb, weil es in der Erklärung zur oben eingefügten Abbildung 3.5 von Vinós & May heißt, Zitat mit Hervorhebungen, „Es ist bekannt, dass der meridionale Energie- und Impulstransport durch ENSO, die quasi-bienniale Oszillation und die Sonnenaktivität moduliert wird.“ Ein solcher meridionaler Energietransport durch sonnenerwärmte Materie ist zwangsläufig mit einer Erwärmung in den Tropen und einem Wärmetransport zu den Polen verbunden. Denn, wie wir gesehen haben, hat die Sonneneinstrahlung auf den Polkalotten keine ausreichende „Tiefenwirkung“.

Usoskin et al. hatten jedenfalls in ihrer Veröffentlichung “SOLAR ACTIVITY OVER THE LAST 1150 YEARS: DOES IT CORRELATE WITH CLIMATE?” nachgewiesen, dass die Temperatur in der Nordhemisphäre der Sonnenaktivität mit einer Zeitdifferenz von etwa 10 Jahren folgt:

Abbildung: Usoskin et al. (2005) Figure 3. Correlation coefficient between northern hemisphere temperatures (MJ03) and the reconstructed sunspot number as a function of time lag between the two data series. Positive lags correspond to sunspot numbers leading the temperature.

Übersetzung: Korrelationskoeffizient zwischen den Temperaturen auf der Nordhalbkugel (MJ03) und der rekonstruierten Sonnenfleckenzahl als Funktion der Zeitverzögerung zwischen den beiden Datenreihen. Positive Lags entsprechen den Sonnenfleckenzahlen, die die Temperatur anführen.

Trotzdem wird in der medialen Öffentlichkeit inzwischen der sogenannte THE über seinen monokausal durch CO2 definierten „menschengemachten“ Anteil für jede noch so selbstverständliche Wetterkapriole verantwortlich gemacht, die sich zufällig irgendwo auf dieser Welt ereignen mag. Gleiches gilt auch für klimahysterische Nachrichtenmeldungen, die mit schöner Regelmäßigkeit über jährlich wiederkehrende natürliche Klimaereignisse bis hin zur sommerlichen Gletscherschmelze oder zum regenreichen jahreszeitlichen Monsun berichten. Zu solchen, in klimareligiösem Eifer herbeigeredeten Monokausalitäten, fällt mir abschließend nur noch ein uralter Witz ein:

WARNHINWEIS: Dieser Witz könnte Ihr religiöses Empfinden verletzen!

Klein Fritzchen ist mit seinen Eltern von der Großstadt aufs Land gezogen und dort in einer konfessionellen Grundschule eingeschult worden. Eines Tages fragt die Lehrerin: „Ich habe heute Morgen ein totes Tier auf der Straße gesehen, von dem nur noch ein buschiger roter Schwanz zu erkennen war. Fritz, was war das wohl?“ Klein Fritzchen antwortet: „Ich persönlich tippe auf ein Eichhörnchen, aber wie ich den Laden hier kenne, wird es wohl wieder das Jesuskind gewesen sein.“

 




Was bedeutet „unter 10 μSv/a“?

von Dr. Lutz Niemann

Herr Ulrich Waas hat einen exzellenten Artikel geschrieben „Die Grünen sind Genies darin, das Volk über die Atomkraft zu täuschen“, der in der Berliner Zeitung am 23.8.2022 abgedruckt worden ist (https://www.berliner-zeitung.de/politik-gesellschaft/kernkraftwerke-robert-habeck-die-gruenen-sind-genies-darin-das-volk-ueber-die-atomkraft-zu-taeuschen-li.258958). Darin wurde auf den bei Rückbau von Kernkraftwerken und bei Endlagerung geltenden Strahlen-Grenzwert 10 μSv/a (= Mikrosievert pro Jahr) eingegangen. Die Unsinnigkeit des Grenzwertes von 10 µSv/a wurde erläutert, hier sollen noch weitere Argumente zugefügt werden.

  • Die Grenze von 10 µSv/a gilt im Bereich Rückbau und Endlagerung, es ist die über ein ganzes Jahr aufsummierte zusätzliche Bestrahlungsdosis. Das bedeutet bei Gleichverteilung über ein Jahr eine zusätzliche Ortsdosisleistung von 0,0011 µSv/h = 1 nSv/h, und das ist ganz grob etwa ein Hundertstel der Schwankungsbreite der überall auf der Erde vorhandenen Radioaktivität. Bestrahlungsdosen in diesem Bereich sind belanglos und auch nicht meßbar, sie werden in Rechenmodellen berechnet.
    Bei den Jahrestagungen Kerntechnik wurde wiederholt über den Unsinn der Bestimmung „unter 10 μSv/a“ diskutiert.
  • Es ist richtig, durch einen Transatlantikflug von FRA – JFK – FRA erhält jeder Reisende in den 15 Stunden des Fluges etwa 100 µSv, also das Zehnfache von 10 µSv (das können je nach Aktivität der Sonne auch 40% mehr oder 20% weniger sein). Die Ortsdosisleistung – also der Strahlenpegel – beträgt in Reiseflughöhe über Deutschland ca. 6 µSv/h, er ist etwa 100-fach höher als am Boden. Ein 100-fach erhöhter Strahlenpegel würde in Kernkraftwerken sämtliche Alarmglocken ertönen lassen, im Flugzeug ist er akzeptiert, man weiß aus Erfahrung daß er harmlos ist.
  • Das fliegende Personal der Lufthansa sammelt in einem Jahr eine zusätzliche Strahlendosis bis zu 10 000 µSv = 10 mSv an, also das 1000-fache von der Grenze 10 µSv/a (sehr abhängig von der Flugroute). Das geschieht ohne irgendwelche negativen gesundheitlichen Folgen.
    Es ist immer auch die Zeit, in der eine Dosis einwirkt, zu beachten. Zur Veranschaulichung erinnere ich an die Wirkung von einer Dosis Ethanol (Alkohol): Die Flasche Schnaps ist tödlich beim Konsum in der Zeit von wenigen Minuten, jedoch harmlos bei Verteilung über ein Jahr. Dieses Beispiel zeigt die Unsinnigkeit der im Strahlenschutz üblichen Aufsummierung kleinster Dosen über ein ganzes Jahr an.
  • Für medizinische Röntgenuntersuchungen sind die Bestrahlungsdosen folgender Tabelle zu entnehmen [1]:

    Es werden in der Medizin Bestrahlungsdosen vom 1000-fachen der Grenze „10 μSv/a“ angewendet. Das geschieht innerhalb von Zeiten weniger Minuten, täglich zum Wohle von Millionen Patienten. Das ist ein weiteres Beispiel für die Unsinnigkeit der gesetzlichen Grenze von „unter 10 μSv/a“.
  • Erst bei Bestrahlungen zur Krebsbekämpfung kommt man in den Bereich, wo schwere Nebenwirkungen durch die Strahlung auftreten. Dort wird über einen Zeitraum von 6 Wochen an den 5 Tagen der Woche in der Regel täglich mit 2 Sv bestrahlt, in der Summe mit 60 Sv [2]. Es heißt dort: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren, die Erholungszeiten bei malignen Zellen sind für vergleichbare Reparaturvorgänge häufig länger.“ Bei der Krebsbekämpfung geht es um das Weiterleben der Patienten, dort geht man bis an die Grenze der für gesundes Gewebe gerade noch erträglichen Bestrahlungsdosis.
    Der Abstand der Bestrahlungsdosen zur oben genannten Grenze „unter 10 μSv/a“ liegt ganz grob im Bereich Millionen, der Abstand bei der Dosisleistung im Bereich Milliarden. – Wo kann man bei diesen Abständen noch die Notwendigkeit zur Festlegung einer Grenze erkennen?
    Dem geneigten Leser sei empfohlen, auch bei Ethanolkonsum sich die Bedeutung des Abstandes von einem Millionstel der letalen Dosis klar zu machen.

Mit der Grenze 10 µSv/a wird eine Gefahr suggeriert, diese Gefahr gibt es jedoch nicht. Durch Schutzmaßnahmen vor einer nicht existierenden Gefahr werden Arbeitsplätze geschaffen, eine riesige Industrie lebt davon. So wird der unwissende Bürger in die Irre geführt, er muß unnütze Dinge bezahlen.

Inzwischen hat die Angstmache vor Strahlung Deutschland dazu gebracht, freiwillig aus seiner lebensnotwendigen Stromversorgung auszusteigen.

Endlagerung oder das „1-Millionen-Jahre“-Missverständnis

Das von der Politik erfundene Totschlagargument „1-Million-Jahre“ suggeriert ein unlösbares Problem mit der Endlagerung. Auch dazu einige zusätzliche Gedanken:

  • In der oberen 1 Meter dicken Erdschicht eines normalen Gartens von 500 m² Fläche sind 3 bis 5 kg Uran enthalten. Wenn man dieses Uran aus dem Garten zum Einsatz im Kernkraftwerk gewinnen könnte und im Schnellen Reaktor einsetzen würde, dann würde es ausreichen 30 bis 50 Personen ein ganzes Leben mit Strom zu versorgen.
    Dieses Beispiel zeigt die ungeheure Energiedichte im Uran an und damit die millionenfach höhere Bedeutung für die Stromversorgung im Vergleich mit den fossilen Brennstoffen Kohle, Gas, Öl.
  • Es gelangt Uran mit Nahrung und Getränken auch in unseren Körper, im Laufe des Lebens sammeln sich etwa 50 µg Uran an [3]. – Aber was bedeuten nun 50 µg Uran, ist das viel oder ist das wenig? Sind wir dadurch mit Uran vergiftet? 50 µg Uran sind eine verschwindend geringe Masse, aber es sind 100 000 000 000 000 000 Uranatome und das ist eine gigantisch große Zahl.
    Durch Zahlenspielereien dieser Art lässt sich beliebig Angst erzeugen. In Deutschland wurde die Methode zur Perfektion gebracht.
  • Aus dem ASSE-Bergwerk wurde durch die Förderung von Kalisalz (Kalium-40 ist radioaktiv) etwa genau so viel Radioaktivität heraus geholt, wie später durch Einlagerung von schwach aktiven Stoffen wieder hinein gebracht wurde (nach 100 Jahren sind die 250 g Pu-241 verschwunden, die heute noch den überwiegenden Teil der Aktivität darstellen).
    Mit dem Kalisalz wird auf unseren Äckern genau so viel Radioaktivität verteilt, wie es in der Tiefe des ASSE-Bergwerkes als Gefahr dargestellt wird.
  • Aus den schönen Rechenbeispielen von Herrn Ulrich Waas zum Urangehalt der Erdkruste folgt für das Deckgebirge oberhalb der ASSE: Die schwach radioaktiven Abfälle in der Tiefe werden durch ein Deckgebirge mit dem100-fachen an Radioaktivität geschützt. Das gilt sowohl in Bezug auf die Aktivität wie auch in Bezug auf die Masse [4].
    Warum sollen die Abfälle wieder an die Oberfläche geholt werden, wo sie doch durch die 100-fach höhere „Gefahr“ im Deckgebirge geschützt werden?
  • Vor großen Gefahren sollen Menschen geschützt werden, und das ist immer eine hohe Dosis in kurzer Zeit. Bei den Abfällen aus der Kernspaltung gibt es diese Gefahr kaum. Die Gefahr wurde durch unsinnige Grenzwerte suggeriert und später von der Politik für politische Ziele ausgenutzt. Die Spaltprodukte aus der vollständigen Stromversorgung eines Menschen durch Kernkraft aufsummiert für das gesamte Leben machen gerade einmal 100 Gramm aus. Das ist die Masse einer Tafel Schokolade, vor der Menschen problemlos geschützt werden können [5].

Die Kernspaltungsenergie ist eine der großartigsten Erfindungen der Menschheit. Überall wird sie benutzt, überall auf der Erde wird eingestiegen, nur in Deutschland wird ausgestiegen. Die Ursache für das Verhalten Deutschlands ist politischer Art, verstärkt durch ein wahres Trommelfeuer der Medien durch jahrzehntelange Falschinformation der Bürger zu nicht existierenden „Gefahren“ von Radioaktivität und Strahlung. Die Deutschen sollten sich besinnen und an klugen Nachbarvölkern ein Beispiel nehmen, z. B. an Rußland mit der Anwendung des Schnellen Reaktors, wie er in Deutschland in Kalkar fertig gestellt worden ist, aber nie in Betrieb ging.

Hinweise

[1] Strahlenschutzlexikon 2012

[2] Deutsches Ärzteblatt, Jg.110, Heft 17, 26.4.2013, Seite 720 ff

[3] P. Roth, E. Werner, H.G. Paretzke, “Untersuchungen zur Uranausscheidung im Urin”, GSF-Bericht 3/01

[4] StrahlenschutzPRAXIS 1/2010 S. 98.

[5] https://eike-klima-energie.eu/2019/10/14/kernenergie-der-weg-in-die-zukunft/

 




Sievert oder Sauvignon – das Schweizer Endlager

von Manfred Haferburg

Die Geologie hat gesprochen und die Schweizer haben sie gehört.

„Die Geologie hat gesprochen. Es ist eine eindeutige Entscheidung.“, konstatiert die Schweizer Nationale Genossenschaft für die Lagerung radioaktiver Abfälle (Nagra). Die Schweiz hat entschieden, dass das Endlager der Eidgenossen für hochradioaktiven Müll nahe der deutschen Grenze, direkt gegenüber der deutschen Gemeinde Hohentengen entstehen soll.

Das Herzstück für das Endlager sei der Opalinuston. Das Gebiet heißt in der Schweiz „Nördlich Lägern“ und liegt im Zürcher Unterland. Es handelt sich um ein hunderte Millionen Jahre altes, sehr dichtes Material, das entstehende Risse selbst schließt. Opalinuston besteht aus recht einheitlichen Tonen und Tonsteinen mit einzelnen Toneisensteingeoden-Lagen und schließt nach Ansicht von Experten radioaktiven Abfall langfristig am besten ein. „Falls sich beim Bau des Lagers oder im Lauf von Hunderttausenden Jahren durch Gesteinsverschiebungen Risse im Opalinuston bilden, würde dieser sie selbst wieder abdichten. Kommt der Opalinuston mit Wasser in Kontakt, quillt er auf und verschließt solche Risse“. Sagt die Schweizer Nationale Genossenschaft für die Lagerung radioaktiver Abfälle.

Ein Schweizer Endlager an der deutschen Grenze

Es gibt in der Schweiz mehrere Formationen mit Opalinuston. Warum wurde der Standort an der Grenze zu Deutschland gewählt? Die Schweizer Gesellschaft sagt, dass die Opalinuston-Schicht an der deutschen Grenze am dicksten sei und zudem sei der Abstand zu wasserführenden Schichten und zur Oberfläche größer als bei den anderen Standorten. In dem geplanten Endlager sollen die radioaktiven Abfälle aus Atomkraftwerken, Industrie und Forschung in hunderten Metern Tiefe eingebettet werden.

Der Bau des Lagers muss noch Genehmigungsverfahren durchlaufen und dürfte frühestens 2031 beginnen, die Einlagerung erst 2050.

Eine Verpackungsanlage für radioaktive Abfälle soll an dem jetzigen Zwischenlager in Würenlingen entstehen, weil dort bereits Bauten vorhanden seien, die genutzt werden können.

Bei vielen Menschen erzeugt der Begriff „Radioaktivität“ Unbehagen

Die von radioaktiven Stoffen ausgesandte ionisierende Strahlung wird häufig als bedrohlich empfunden, unabhängig davon, wie stark sie ist und woher sie stammt.

Wenn ich mir allerdings die Schutzmaßnahmen der Endlagerung ansehe, dann habe ich vor anderen Dingen Angst als vor Radioaktivität. Ich würde mich demzufolge vor einem Endlager in der Nähe meines Wohnortes weniger fürchten als vor Politikern, die glauben, dass sie die Gesetze der Physik und der Ökonomie per Beschluss im Bundestag ändern können.

Was geschieht mit dem hochradioaktiven Müll?

Die Sorgfalt beginnt mit der „Verpackung“ des Atommülls. Was nicht recycelt wird, verbrennt man in Drehrohröfen. Die Asche wird dann mit flüssigem Glas vermischt, das in Kupferzylindern erstarrt. Diese werden dicht verschweißt und kommen in wasserdichte Endlagergebinde, die ihrerseits dann im Endlager in 800 Meter tiefe Schächte weit unter dem Grundwasserspiegel in wasserdichte Tonzylinder eingebracht werden. Die einzelnen Gänge werden dann auch noch mit Ton verfüllt.

Diese Gesteinsformation gibt es unverändert seit 175 Millionen Jahren. Und obwohl auch die vielkolportierte Zeit der Endlagerung mit der Notwendigkeit der sicheren Einlagerung über einen Zeitraum von einer Million Jahren eine sinnlose Übertreibung ist, kann sie in diesen Gesteinsschichten gewährleistet werden.

Der deutsche Sonderweg der Endlagerung

Die Endlagersuche in Deutschland wird von der grünen Bewegung systematisch verunmöglicht und hinausgezögert. Dahinter steckt die Sorge, dass ihnen ihr wichtigstes Argument „Es gibt kein Endlager“ für den Atomausstieg abhandenkommt. Die Planungszeiträume für ein deutsches Endlager werden in Dekaden berechnet. Die Deutschen lagern derzeit die abgebrannten Brennelemente in Castorbehältern, die in gebunkerten Zwischenlagern aufgestellt sind.

Ich halte diese Lagerung allerdings für die derzeit weltweit beste Methode. Die abgebrannten Brennelemente enthalten nämlich noch 98 Prozent ihrer Energie, die mit den herkömmlichen Reaktoren nicht genutzt werden kann. Allerdings werden derzeit weltweit die neuen Reaktoren der Generation Vier entwickelt. Diese können diese nicht genutzte Energie in Strom und Wärme umwandeln. So steht in den Zwischenlagern so viel radioaktives Brennmaterial, dass mit den neuen Dual-Fluid-Reaktoren Deutschland für 350 Jahre mit Strom versorgt werden kann. In 15 Jahren spätestens steht diese Technologie zur Verfügung.

Echte Probleme überdecken künstliche Probleme

Zurzeit scheinen die Deutschen allerdings ganz andere Sorgen zu beschäftigen als mit einem künftigen Schweizer Endlager in Grenznähe. Der mediale Entrüstungssturm über die Schweizer Endlagerentscheidung hält sich offenbar noch in Grenzen. Das ZDF zeigte sich kurz und naturgemäß tief besorgt, allerdings wohl gegendert.

Die deutsche Strahlenangst ist eigentlich ein recht junges Phänomen. Bis in die Sechziger Jahre des letzten Jahrhunderts galt Radioaktivität in geringen Dosen als gesundheitsförderlich und der Schönheit dienend. Es gab sogar radioaktiv angereicherte Lebensmittel zu kaufen, zum Beispiel „Radiumbier in Flaschen“. Und es gab Kosmetika, radioaktive Gesichtscreme, radioaktive Zahnpasta und sogar radioaktive Kondome.

Der Prospekt des Radonbades in Menzenschwand (Schwarzwald) sagte noch bis vor Kurzem: „Zwei Quellen vom nahen Bachtal versorgen die Therme mit fluoridhaltigem Heilwasser (32°C. bis 37°C.) sowie das radonhaltige Heilwasser, das ausschließlich im Therapiebereich eingesetzt wird. Die Radontherapie wird seit vielen Jahren erfolgreich bei rheumatischen Erkrankungen und chronischen Schmerzen angewendet. Der örtliche Kurarzt verordnet die Radontherapie in Einzelwannenbädern“. 

Ich persönlich gehöre zu der Fraktion, die glaubt, dass radioaktive Strahlung in geringen Dosen eher gesundheitsförderlich als schädlich ist. Aber beweisen konnte das bisher noch niemand.

Verstrahlt – ist unsere Angst vor Strahlung rational?

Es gibt keinen Unterschied zwischen „natürlicher“ und „künstlicher“ Strahlung. Alles in unserer Welt ist radioaktiv – auch wir selbst. Unser Körper wird je Sekunde von 20.000 Strahlenteilchen getroffen, in Kurorten können es auch mal 100.000 sein.

Ohne Radioaktivität wäre kein höheres Leben möglich. Die Radioaktivität erzeugt 50 Prozent der Erdwärme. Ohne Radioaktivität gäbe es den Carbonat-Silikat-Zyklus nicht, den Thermostat unserer Welt als Voraussetzung für die Entwicklung von Leben.

Somit sind alle Menschen vollkommen „verstrahlt“. Jede Körperzelle enthält eine Million radioaktive Atome, jede Sekunde zerfallen 8.000 radioaktive Atome in unserem Körper – wenn wir so um 70 kg wiegen, sind das 8.000 Becquerel (Bq) –  bei Arnold Schwarzenegger könnten es sogar so um 12.000 Bq sein.

Sehen wir uns die Strahlenbelastung des Menschen, der wir auch ohne Endlager ausgesetzt sind, einmal an. Das sind in Deutschland durchschnittlich  2,4 Millisievert/Jahr.

Wo kommt nun unsere Strahlenbelastung her?

Ungefähr die Hälfte unserer Strahlenbelastung kommt von denen, die am meisten davor warnen, der Ärzteschaft.

• 45 Prozent Medizin: ein Ganzkörper-CT bringt so viel Strahlung wie 200-mal nach Tokyo fliegen.

• 30 Prozent Radon: ein Gas, das in unseren Kellern aus dem Gestein aufsteigt, sich dort gerne sammelt und beim Bierholen eingeatmet wird.

• 10 Prozent kosmisch: aus dem Weltraum einfliegende Teilchen, die es bis zur Erdoberfläche schaffen

• 14 Prozent terrestrisch: aus der Erde umherfliegende Teilchen

• 1 Prozent künstlich, alles zusammen: Tschernobyl, Atombombenversuche, Kernkraftwerke

Schon in Deutschland differiert die Strahlenbelastung sehr stark. Der durchschnittliche Wert variiert je nach Wohnort von 1 Millisievert (mSv) in der norddeutschen Tiefebene bis 10 mSv in gebirgigen Gegenden, z.B. der Eifel. Anderswo sind die Werte der menschlichen Strahlenbelastung 100-mal so hoch, ohne dass die dort lebenden Menschen irgendwelche Schäden erleiden. So beträgt die Strahlung in Brasilien, am Badestrand Guarapari 200 mSv, in Ramsar im Iran am sogenannten Schwarzen Stand 400 mSv. Das ist ganz nebenbei gesagt das Mehrfache der Strahlung, die in der Evakuierungszone um das havarierte Kernkraftwerk Fukushima herrscht.

Nicht nur Kernkraftwerker oder Röntgenärzte sind leicht erhöhter Strahlung ausgesetzt. Piloten erhalten zusätzlich 1,2 Millisievert, wenn sie 600 Flugstunden/Jahr auf der Nord-Route fliegen. Raucher, die 20 Zigaretten pro Tag konsumieren, bekommen 14 mSv/Jahr zusätzlich ab. Ein Aufenthalt im Space Shuttle bestrahlt einen Astronauten mit ca. 200 Millisievert.

Sievert oder Sauvignon – die Dosis pro Zeiteinheit macht’s

Als letale Strahlendosis gelten fünf Sievert, die jemand in kurzer Zeit abbekommt. Dann wird er strahlenkrank und stirbt. Unterhalb von 0,2 Sievert sieht man nichts, auch kein Krebsrisiko. Der Mensch kann aber fünf Sievert über einen längeren Zeitraum verteilt abbekommen, ohne zu sterben oder zu erkranken.

Das ist wie mit dem Wein. Fünf Liter Sauvignon in wenigen Minuten gepichelt, würde man mit einer schweren Alkoholvergiftung vielleicht nicht überleben. 200 Liter Sauvignon über einige Jahre verteilt – wunderbar – und neben dem Genuss vielleicht sogar gesund.

Der Beitrag erschien zuerst bei ACHGUT hier




Sicherheitszonen um Kernkraftwerke – Was soll das?

von Dr. Lutz Niemann

Die Kernenergie wird als sehr gefährliche Technik dargestellt, daher steigt Deutschland jetzt aus dieser Technik aus. Und Deutschland will die Kernenergie durch Stromversorgung durch Sonne und Wind ersetzen. Niemand scheint in den letzten über 20 Jahren bemerkt zu haben, daß dieses Unterfangen wegen der Dunkelflaute nicht geht. Aber was wiegt so schwer, daß Deutschland dennoch aus der KE aussteigt?

Das hat andere Gründe, das ist Folge der seit etwa 80 Jahren weltweit geschürten Angst vor der Strahlengefahr.

Es hieß in der Anfangszeit

Bei einem Unfall eines Kernkraftwerkes entweichen die enthaltenen radioaktiven Stoffe und machen die Umgebung für sehr lange Zeiten unbewohnbar.

Diese Warnung wurde insbesondere auch von Edward Teller verbreitet. Ed Teller war damals als einer der führenden Physiker bekannt und genoß Vertrauen, daher wurde ihm geglaubt. Über die Gefahren, die entweichende Radioaktivität beinhaltet, war zu jener Zeit kaum etwas bekannt. In der Anfangszeit wurde daher darauf geachtet, Kernkraftwerke in möglichst dünner besiedelten Gegenden zu bauen. So wurde die Angst vor Strahlung und Kernkraft gezüchtet.

Dazu ein Beispiel aus dem Jahre 1955

Es wurde gesagt: Bei einer radioaktiven Bodenkontamination von „2 mc/ft² – Land unusable for 2 years“ und „Dose rate falls to 300 mr/week in 2 years“ [1].

Was bedeutet das?

Nehmen wir an, daß die gesamte Aktivität aus gamma-Aktivität von Cs-137 besteht, dann errechnet sich daraus eine Ortsdosisleistung von 1 bis 2mSv/h, die in 2 Jahren auf 20µSv/h abfällt.

Welche Gefahr kann aus diesen Ortsdosisleistungen erwachsen?

Wenn sich eine Person die gesamten 8760 Stunden des Jahres an derartiger Stelle aufhält, dann ergibt sich eine kumulierte Ganzkörperdosis von 10 bis 20Sv, die in 2 Jahren auf 150mSv abfällt.

Was bedeuten 20Sv bei Gleichverteilung über ein Jahr?

20Sv sind weit mehr als der Grenzwert von damals und weit mehr als die letale Dosis von ca. 5Sv. Weil sich eine Person nicht 8760 Stunden auf gleicher Stelle einer kontaminierten Stelle im Freien aufhält, kann die kumulierte Dosis von 20Sv nie auftreten. — Dazu bietet sich der gern gebrauchte Vergleich mit dem Gift und Kanzerogen Ethanol an: Es werden in Deutschland im Mittel 10 Liter pro Person reinen Ethanols im Jahr konsumiert, das sind 20 bis 40 letale Dosen. Bei Gleichverteilung über das Jahr bringen die letalen Dosen eher Lebensfreude als Schaden.

Die Aussage „2 mc/ft² – Land unusable for 2 Years“ ist unhaltbar, denn es gibt keinen gesundheitlichen Schaden bei dieser Bodenkontamination. Folglich sind auch die darauf beruhenden gesetzlichen Bestimmungen zu Sicherheitszonen um Kernkraftwerke unhaltbar.

Nach der im Strahlenschutz weltweit etablierten Lehrmeinung aufgrund der LNT-Hypothese ist jede zusätzliche Strahlendosis verboten. Nach etablierter Rechenvorschrift wird aus einer Zusatzdosis ein zusätzliches tödliches Krebsrisiko berechnet, daß aber weder verifizierbar noch falsifizierbar ist. Ein nicht meßbares Risiko ist jedoch KEIN Risiko, daher wird in der Fachwelt seit langen gegen die LNT-Hypothese vorgegangen. Z. B. die Petition der Professoren Carol S. Marcus, Mark L. Miller und Mohan Doss an die Genehmigungsbehörde NRC der USA zur Korrektur der geltenden Gesetze aufgrund der LNT-Hypothese und deren Ersatz unter Beachtung der Strahlen-Hormesis [2].

Die nicht haltbare Lehrmeinung von der Unbewohnbarkeit weiter Landstriche im Falle des Entweichens von radioaktiven Nukliden bei Unfällen hatte fatale Folgen.

Was hat man 2011 beim Fukushima-Unfall falsch gemacht?

Es gab in drei Reaktoren eine Kernschmelze, und man musste Druck ablassen, um eine Zerstörung der Reaktordruckbehälter zu vermeiden. Es wurden radioaktive Spaltprodukte und Wasserstoff frei gesetzt. Der Wasserstoff kam zur Explosion und zerlegte Teile der Gebäude. Die in automatischen Meßstellen auf dem Kraftwerksgelände gemessenen Ortsdosisleistungen waren weltweit abrufbar. In Deutschland wurden diese von den Fachleuten der GRS aufbereitet und beschriftet, hier ein Beispiel:

Ortsdosisleistung von Meßstellen auf dem Kraftwerksgelände von Fukushima

Bei den Druckentlastungen ist Radioaktivität entwichen, das ist verboten. Die Dosisleistung erreichte mit 12 Sievert pro Stunde kurzzeitig extrem hohe Werte, jedoch wurde die Aktivität mit dem Wind verteilt, so daß keine gefährliche Dosis erreicht werden konnte. Die eingezeichnete Fläche bedeutet eine Dosis von 48 mSv, das ist ein 100-stel der letalen Dosis, bei der eine reale Gefährdung beginnt.

Es wurden über 100 000 Menschen aus der Umgebung evakuiert, weil es das Gesetz befahl. Die in der Umgebung gemessenen Ortsdosisleistungen erreichten maximal 150µSv/h [3]. Das erscheint dem fachkundigen Mitarbeiter in einem KKW hoch, ist jedoch harmlos für die Gesundheit der Menschen.

Durch die Evakuierungen kam es zu Todesfällen, es ist von über 1000 Opfern die Rede [4].

In Fukushima ist durch Negierung der Tsunamigefahr direkt an der Küste ein technisches Großgerät zerstört worden. Die frei gesetzte Radioaktivität hatte weder für die Kraftwerker noch für die Bewohner in der Umgebung gesundheitlichen Folgen. Durch gesetzlich vorgeschriebene, jedoch ansonsten nicht begründbare Evakuierungen der Menschen in der Umgebung kamen über 1000 Menschen zu Tode. Es wäre an der Zeit, unsinnige gesetzliche Bestimmungen zu überdenken, was weltweit von führenden Strahlenfachleuten seit langer Zeit vergeblich gefordert wurde – auch von deutschen Professoren.

Was ist zum Tschernobyl-Unfall von 1986 zu sagen?

Beim Tschernobyl-Unfall ist im Vergleich zu Fukushima etwa die 10-fache Menge an Radioaktivität ausgetreten, das war I-131 und Cs-137 und -134. Diese Freisetzung von Radioaktivität ist verboten. Infolge dieser Radioaktivität konnte maximal ein 10-tel der letalen Dosis erreicht werden, also wurden Menschen nicht wirklich gefährdet. In der 3km entfernten Ortschaft Pripyat gab es am 27.4.1986 Meßwerte der Ortsdosisleistung 1m über Grund bis zu 10mSv/h, die bis zum 6.5. 1986 auf 1 bis 3mSv/h sank [5]. Diese Messungen und der Vergleich mit den Daten von Fukushima zeigen, daß auch in Tschernobyl die letale Dosis nicht erreicht wurde.

Bei der Expertenkonferenz der IAEA in Wien im August 1986 [5] haben die russischen Experten berichtet, daß die Strahlenkrankheit unter den Helfern der ersten Stunde auftrat (geschätzte Dosis 2Sv bis 16Sv, erreicht durch Spaltprodukte und durch hoch aktivierte Trümmer von Strukturelementen). Es wurde offenbar nicht auf die Strahlengfährdung geachtet.

Es sind in Tschernobyl etwa doppelt so viele Menschen wie in Fukushima aus der Umgebung evakuiert worden. Es ist zu schließen, daß dadurch auch etwa doppelt so viele Evakuierte zu Tode kamen (Entwurzelung, soziale Isolation, Flucht in Alkohol). Darüber berichten Medien nicht.

Bei dem Versuch, der zum Tschernobyl-Unfall führte, wurde massiv gegen die Betriebsvorschriften verstoßen, in [5] heiß es 8 x „Verstoß gegen die Betriebsvorschriften“. Es schien dem Personal die beim Abfahren des Reaktors unterhalb von 50% Leistung auftretende Xenon-Vergiftung nicht bekannt zu sein. Das stützt die von Karl-Rudolf Schmidt berichtete Aussage, daß das Experiment damals von unwissenden Soldaten gefahren worden ist, weil sich das Betriebspersonal geweigert hatte [6].

Auch der Tschernobyl-Unfall war ein Beweis für die falsche Aussage „Land unusable for 2 Years“ aus der Frühzeit der 1950-er Jahre und den daraus abgeleiteten falschen Vorschriften zur Bevölkerungsevakuierung bei Freisetzung radioaktiver Stoffe. Die Einrichtung von Sicherheitszonen um Kernkraftwerke durch den Gesetzgeber schafft Verunsicherung und Angst in der unwissenden Bevölkerung, der Gesetzgeber sollte korrigieren.

Auch in Tschernobyl sind 1000 und mehr Menschen infolge der Evakuierungen ums Leben gekommen. Die Strahlenkrankheit an 134 Helfern der ersten Stunde und die 28 tödlich verlaufenden Fälle hätte man vermeiden können, wenn man diese Leute nicht in die stark strahlenden Bereiche geschickt hätte.

Es ist durchaus gerechtfertigt, die Worte von Herrn Karl-Rudolf Schmidt zu wiederholen, und beim Tschernobyl-Unfall von einem begangenen Verbrechen zu sprechen, da die Gefährlichkeit der RMBK-Reaktoren den Sowjets seit der Genfer Atomkonferenz in 1955 bekannt war [6]. Aus dem Tschernobyl-Unfall irgendwelche Schlußfolgerungen für unsere Druck- und Siedewasserreaktoren zu ziehen ist falsch und beweist Unkenntnis in der Materie.

Bemerkungen aus der Fachwelt

  • Die erwähnte LNT-Hypothese und in der Folge die ALARA-Bestimmungen sind ganz sicher der folgenreichste wissenschaftliche Irrtum der Menschheit (Prof. Walinder).
  • Die LNT-Hypothese und das ALARA-Prinzip sind kriminell (Prof. Jaworowski, man nannte ihn den Strahlen-Papst von Polen).
  • Die friedliche Nutzung der Kernenergie hat von den Anfangsjahren bis heute weltweit etwa 162 Todesopfer gefordert (UNSCEAR, IAEA). Da ist alles enthalten wie Tschernobyl, die Kritikalitätsunfälle in der Anfangszeit (in westlicher Welt 34 Unfälle mit 8 Todesopfern, in der östlichen Welt etwa doppelt so viele), Bestrahlungen in der Medizin mit fehlerhafter zu hoher Dosis, sonstige Schlampereien. Damit ist die Kerntechnik die sicherste Technik, die je von Menschen erfunden wurde. Es ist ein Beweis für den seit Anbeginn gepflegten verantwortungsvollen Umgang mit dieser Technik.
  • Die Strahlenschutzgrundsätze werden als „speculative, unproven, undetectable and ‚phantom‘“ beschrieben (ICRP). Ein Phantom ist ein Geisterbild oder Gespenst. ⇒ Aus Angst vor Gespenstern steigt Deutschland aus der Kernenergie aus.
  • Es gibt inzwischen mit KKW’s westlicher Bauart etwa 18 000 Reaktorbetriebsjahre – das ist 9-mal die Zeit von Christi Geburt bis heute – ohne das ein Mensch durch die besondere Gefahr der Radioaktivität zu Schaden gekommen wäre. Noch sicherer als NULL Schaden geht nicht.
  • „Kernkraft ist eine der großartigsten Erfindungen der Menschheit“ (Nuklearia). Das ignorieren die Deutschen mehrheitlich. Ein Ersatz der Kernenergie durch Sonne und Wind führt zurück ins Mittelalter.

[1] Paul Laufs, Reaktorsicherheit für Leistungskraftwerke, Seite 55

[2] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057

[3] Bericht der GRS: grs-s-56.pdf

[4] Themenheft der StrahlenschutzPRAXIS 1/2015 zum Fukushima-Unfall

[5] GRS-Bericht über die IAEA-Konferenz in Wien vom 25. – 29.8.1986, Stand Oktober 1986

[6] Karl-Rudolf Schmidt zu Tschernobyl, Bayernkurier vom 24.4.1999 und Kommentar vom 21.1.2000

 




Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion

Vorwort der EIKE Redaktion

Der folgende Beitrag wird wieder eine heftige Diskussion unter einigen unserer Leser auslösen. Dies ist insofern unverständlich, als das doch wohl vorausgesetzt werden kann, dass – wie jeder aus eigenem Erleben weiß – die Sonne nur tagsüber scheint. Das muss als gesetzt akzeptiert werden. Was dann noch bleibt ist die Klärung der Frage: Sind die von der internationalen Klimawissenschaft gemachten Vereinfachungen der Bildung der Mittelwerte von Ein- und Abstrahlung über die Kugelfläche statt der Halbkugelfläche, bei der Ermittlung der der Erde zugestrahlten und abgestrahlten Energiemenge, zulässig oder nicht. Wären sie es, dann müsste es ein Leichtes sein, aus ihren Ergebnissen auch die Temperatur der real bestrahlten Halbkugel bei gleichzeitiger Abstrahlung durch die Vollkugel widerspruchsfrei und auf die Kommastelle genau herzuleiten. Bisher hat das aber niemand vermocht, zumindest nicht hier in dieser Leserschaft. Vielleicht regt der folgende Beitrag dazu an.

von Uli Weber

Obgleich es auf unserer Erde erwiesenermaßen Tag und Nacht gibt (Abbildungen 5 und 6) und sich die Relation zwischen beiden über den Jahresverlauf ständig verändert (Siehe Titelbild), wird mein hemisphärisches Stefan-Boltzmann-Modell von vielen Kommentatoren noch immer nicht verstanden und eine rein mathematische Tag=Nacht-Mittelung als Grundlage einer globalen 24h-S-B-Inversion bevorzugt.
Gerne wiederhole ich daher noch einmal die Widerlegungsanforderung für meinen hemisphärischen S-B-Ansatz aus WEBER (2017) hier auf EIKE über einen physikalischen Tag=Nacht-Beweis:

„Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.“

Dazu ein Zitat aus dem Artikel, „Ist „Klimawandel“ Wissenschaft oder Pseudo-Wissenschaft?“ von Andy May, übersetzt von Christian Freuer für das EIKE:

Eine Hypothese, die durch kein denkbares Ereignis widerlegbar ist, ist nicht wissenschaftlich. Popper fragte sich 1919, worin sich Marxismus, Freud und Astrologie von wirklich wissenschaftlichen Theorien wie Newtons Gravitationsgesetz oder Einsteins Relativitätstheorie unterscheiden. Er erkannte, dass letztere getestet und als falsch nachgewiesen werden konnten. Inspiriert wurde er durch die Bestätigung von Einsteins Theorie durch Frank Dyson, Andrew Crommelin und Arthur Eddington während der Sonnenfinsternis 1919.“

Ich darf hier also in aller Bescheidenheit darauf verweisen, dass ich schon sehr frühzeitig einen Widerlegungsbeweis für mein hemisphärisches S-B-Modell eingefordert hatte. Trotz dieser Beweisanforderung ist mir bis heute kein wissenschaftlicher Nachweis für eine physikalische Gleichheit von Tag (@2PiR²) und Nacht (@2PiR²) bekannt geworden. Man ersetzt bei der konventionellen Stefan-Boltzmann-Inversion vielmehr weiterhin die Ungleichheit zwischen Tag und Nacht durch einen physikalisch bedeutungslosen rein mathematischen 24h-Durchschnittswert (@4PiR²) …

Nachfolgend nähern wir uns den theoretischen S-B-Grundlagen einmal über das Stefan-Boltzmann-Experiment. Das Stefan-Boltzmann-Experiment ist ein Standardexperiment in der physikalischen Ausbildung, das den Zusammenhang zwischen der Temperatur eines künstlich erhitzten Schwarzen Körpers und der von seiner Oberfläche abgegebenen spezifischen Strahlungsleistung im gemeinsamen und zeitlich unmittelbaren thermischen Gleichgewichtszustand beschreibt. Der Versuchsaufbau ist denkbar einfach:

Abbildung 1: Das klassische Stefan-Boltzmann-Experiment, Ofen. Hitzeschild mit Blende und Messgerät

Beschreibung:

  • Ein Rohrofen (rechts) wird auf eine bestimmte Temperatur erhitzt; der Schwarze Strahler wird dabei beispielsweise durch einen brünierten Messingzylinder dargestellt.
  • Der Ofen hat eine konstante Temperatur und wird durch eine (ggf. gekühlte) Blende (Mitte) vom Meßgerät abgeschirmt.
  • Die austretende Strahlungsleistung wird gemessen (links).

Das Stefan-Boltzmann-Gesetz lautet:

(1) P = σ * A * T4 oder S = P/A = σ * T4
mit der Stefan-Boltzmann-Konstante σ = 5,670 10 -8 [W m-2 K-4]

und P = Strahlung in [W], A = Fläche [m²], T = Temperatur in [K],
S = spezifische Strahlungsleistung in [W/m²]

Die Systematik dieser physikalischen S-B-Beziehung wird sofort klar, wenn wir in der nachfolgenden Abbildung einmal vier unterschiedlich große Schwarzkörper mit gleicher Temperatur betrachten:

 

Abbildung 2: Zur Bedeutung der spezifischen Strahlungsleistung „S=P/A“ im S-B-Gesetz

Für einen beliebigen Schwarzen Körper mit einer Temperatur von +15°C gilt also immer:

Die SPEZIFISCHE Strahlungsleistung S@15°C dieses Schwarzen Körpers beträgt 390 W/m².

Aus dieser Abbildung wird unmittelbar deutlich, dass die unterschiedlichen Strahlungsleistungen „Pi“ und die zugehörigen ABSTRAHLENDEN Flächen „Ai“ eindeutig zusammenhängen, weil sie für jeden Körper (1-4) eine augenblickliche spezifische Strahlungsleistung „S@15°C“ definieren, die wiederum über das Stefan-Boltzmann-Gesetz eindeutig mit der Momentantemperatur des jeweiligen Körpers von 15°C verknüpft ist. Allein diese Temperatur (primär) bestimmt also die gleichzeitige spezifische Strahlungsleistung (sekundär) eines Schwarzen Körpers nach dem Stefan-Boltzmann-Gesetz:

Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Jede Berechnung einer Temperatur (sekundär) aus der spezifischen Strahlungsleistung (primär) stellt demnach eine Inversion des Stefan-Boltzmann-Gesetzes dar, welche nur zulässig ist, wenn alle Randbedingungen, des S-B-Gesetzes streng erfüllt sind. Da diese aber nicht per se erfüllt werden, ist eine Inversion des S-B Gesetzes immer nur in physikalisch wohl definierten Fällen zulässig. Und diese Fälle orientieren sich wiederum an einer Umkehrung des S-B-Experimentes: Es muss sowohl die in diesem Moment ANGESTRAHLTE Fläche eindeutig definiert sein, als auch der Unterschied zwischen den Flächennormalen von einfallender Strahlung und beleuchteter Fläche (Neigung = Klima) vektoriell berücksichtigt werden.

Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Wohlgemerkt: JEDE Berechnung einer Temperatur aus der spezifischen Strahlungsleistung nach dem S-B-Gesetz stellt eine S-B-Inversion dar, auch die fehlerhafte konventionelle 24h-Tag=Nacht- Berechnung einer sogenannten „Gleichgewichtstemperatur“ von (-18°C) aus 235 W/m² @4PiR²!

Machen wir es uns mal ganz einfach und simulieren wir das S-B-Experiment bei 20°C Zimmertemperatur, 100°C, 200°C und 300°C. Die zugehörige spezifische Strahlungsleistung entnehmen wir jetzt einfach dem Stefan-Boltzmann-Gesetz:

  • 20°C entspricht 293 K und 419 W/m²
  • 100°C entspricht 373 K und 1100 W/m²
  • 200°C entspricht 473 K und 2842 W/m²
  • 300°C entspricht 573 K und 6119 W/m²

Der Zusammenhang zwischen Temperatur und spezifischer Strahlungsleistung nach dem Stefan-Boltzmann-Gesetz ist nachfolgend in Abbildung 1 dargestellt:

 

Abbildung 3: Der Temperaturverlauf nach dem Stefan-Boltzmann-Gesetz (blaue Kurve) mit den 4 imaginären „Messpunkten“ bei 20°C, 100°C, 200°C und 300°C (rote Punkte im roten Kreis).

Sie werden bemerkt haben, dass die T4-Kurve bei 0 W/m² auf 0 Kelvin fällt. Das Dumme ist, dass im S-B-Experiment bei einer Raumtemperatur von 20°C keine Wertepaare unter 20°C/419 W/m² gemessen werden können. Denn der ganze Raum strahlt ja bei dieser Temperatur mit 419 W/m², selbst das Messgerät. Die S-B-Umgebungsgleichung trägt diesem Umstand Rechnung und das Stefan-Boltzmann-Gesetz in seiner allgemeinen Form lautet dann:

(2)

(Anmerkung: Die Gleichung 2 wurde am 8.6.22 vom Autor korrigert. Mit Dank an den aufmerksamen Leser Harde)

Alle Parameter wie in Gleichung 1 mit T0 = Umgebungstemperatur

Und jetzt bilden wir aus unseren „Messpunkten“(schwarz) einmal Mittelwerte (rot):

Tabelle 1: „Messwerte“ nach dem S-B-Gesetz und daraus abgeleitete Mittelwerte der 1. bis 3. Generation

Diese Mittelwerte (rot) fügen wir jetzt wiederum in die Stefan-Boltzmann-Funktion (Abb.1) ein und erhalten:

Abbildung 4: Vergleich des Temperaturverlaufs nach dem Stefan-Boltzmann-Gesetz (blaue Kurve) mit den berechneten Mittelwerten aus Tabelle 1 (rote Punkte 1 bis 6). „(X)“ ist der Mittelwert aus der vorgeblichen nächtlichen Oberflächentemperatur in der konventionellen S-B-Inversion von 0K und der solar induzierten theoretisch möglichen Maximaltemperatur (Näheres im Text nach Abbildung 7).

In Abbildung 4 ist deutlich zu erkennen, dass die berechneten Mittelwerte nicht auf die Stefan-Boltzmann-Funktion fallen. Vielmehr entfernen sich die 3 Mittelwert-Generationen sukzessive von der blauen Kurve: 1. Generation (Punkte 1, 3 und 6), 2. Generation (Punkte 2 und 5), 3. Generation (Punkt 4). Die Differenz der linearen Durchschnittswerte zur Stefan-Boltzmann-Funktion wird also umso größer je größer die Spreizung der beteiligten Einzelwerte ist. Bei einer T4-Funktion sollte dieses Ergebnis eigentlich nicht weiter verwundern.

Wir leben in einer Zeit, wo Meinungen als Fakten verkauft werden, und man Fakten als Meinungen diffamiert. Bilden Sie sich also selbst eine Meinung, indem Sie die Fakten bewerten:

Abbildung 5: Die Inversion des Stefan-Boltzmann-Gesetzes

Unsere Erde wird lediglich auf ihrer Tagseite von der Sonne angestrahlt

Zwischenfrage: Sind die beiden Körper in Abbildung 6 physikalisch wirklich absolut identisch? – Es kann doch nur ein physikalisch korrektes Modell geben, entweder links oder rechts in Abbildung 6:

 

Abbildung 6: Vergleich eines selbstleuchtenden Sterns (Schwarzkörper) mit einem Planeten (Erde)

Links selbstleuchtender Stern (ohne Tag und Nacht), ABSTRAHLUNG: 235W/m² @ 4PIR² bei -18°C
Rechts hemisphärisch beleuchteter Planet (unsere Erde mit Tag und Nacht)
Solare EINSTRAHLUNG = Σi (940W/m² * cos ϕi)/i @ 2PIR² über eine Halbkugel (-Pi/2 bis +Pi/2) bei einer Durchschnittstemperatur von +15°C mit ϕi=örtlicher Zenitwinkel der Sonne

Nun, der S-B Durchschnitt der Temperatur wird für den selbstleuchtenden Stern (Schwarzkörper) im konventionellen Ansatz mit -18°C angegeben, der gemessene Durchschnitt für unsere Erde beträgt aber ca. 15°C. Der Klima-Mainstream bewertet die beiden Körper aus Abbildung 6 also als physikalisch völlig gleich und erklärt die Temperaturdifferenz mit einem sogenannten „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad. Wir können also verkürzend zusammenfassen, dass der physikalische Unterschied zwischen einem selbstleuchtenden aktiven Stern und einem halbseitig bestrahlten passiven Planeten ein sogenannter „atmosphärischer Treibhauseffekt“ sein soll.

Abbildung 7: Das Bermuda-Dreieck einer fehlerhaften Inversion des Stefan-Boltzmann-Gesetzes: „Gleichgewichtstemperatur“ (-18°C), (+15°) real „gemessener“ Durchschnitt, 33° Differenz=THE

Der sogenannte „atmosphärische Treibhauseffekt“ entstammt also dem Bermuda-Dreieck einer physikalisch fehlerhaften Inversion des Stefan-Boltzmann-Gesetzes. Das ist schon komisch, denn allein der Durchschnitt aus minimaler und maximaler Temperatur bei einem halbseitig bestrahlten Körper wie der Erde sieht folgendermaßen aus: Die maximal mögliche solar induzierte Temperatur auf unserer Erde beträgt bei vertikalem Sonnenstand ohne Albedo 394 Kelvin, während die nächtliche Oberflächentemperatur im konventionellen S-B-Ansatz mit 0 Kelvin angenommen wird. Beides ergibt einen Mittelwert von (394+0)K/2 = 197 [K] bei (1367+0)W/m²/2 = 683,5 [W/m²], wie er als „(X)“ in Abbildung 4 eingetragen ist.

https://www.eike-klima-energie.eu/wp-content/uploads/2021/05/up_01.jpg

Das Stefan-Boltzmann-Gesetz verknüpft Temperatur und spezifische Strahlungsleistung eines Körpers im Moment der ABSTRAHLUNG und gilt daher ausschließlich „just in time“. Es wird also aus dem Stefan-Boltzmann-Experiment unmittelbar deutlich, dass eine Mittelung über die Tag- und Nachtseite unserer Erde gar nicht der Stefan-Boltzmann-T4-Beziehung gehorchen kann (S. auch Anhang). Eine Inversion des Stefan-Boltzmann-Gesetzes für die Temperaturbestimmung auf der Erde darf vielmehr nur Flächen einschließen, die genau im Augenblick der solaren ABSTRAHLUNG auch tatsächlich ANGESTRAHLT werden:

Um es hier noch einmal barrierefrei auszudrücken: Nur die ANGESTRAHLTE Fläche zählt bei einer S-B-Inversion. Denn wenn man die unbeleuchtete Nachtseite unserer Erde als ANSTRAHLUNGSFLÄCHE in die Temperaturberechnung einer Stefan-Boltzmann-Inversion einschließt, dann könnte man ebenso gut die unbeleuchtete Tischplatte des Experimentiertisches als ABSTRAHLUNGSFLÄCHE in das Stefan-Boltzmann-Experiment einbeziehen.

Zum besseren Verständnis meiner hemisphärischen Temperaturberechnung für unsere Erde verweise ich abschließend auf diesen Text, diesen Artikel und/oder dieses Buch.

Anhang: Die Berechnungen von Professor Dr. G. Gerlich aus seinem Vortrag zur Treibhaus-Kontroverse, Leipzig, 9./10. Nov. 1995 mit einer Hervorhebung:

Wir haben gesehen, dass lediglich die Tagseite der Erde (2πR2) im Strahlungsgleichgewicht zwischen Sonne und Erde mit dem Stefan-Boltzmann-Gesetz betrachtet werden darf. Aber auch Gerlich betrachtet bei seiner Temperaturberechnung fälschlich die gesamte Erdoberfläche und schließt dabei die Nachtseite mit 0 Kelvin ein. Von daher muss diese Lösung von Gerlich (1995) für die gesamte Erdoberfläche (4πR2) auf die Tagseite der Erde (2πR2) reduziert bzw. das Ergebnis verdoppelt werden:

Temperatur Tagseite = Lösung Gerlich * 4πR2 / 2πR2 = 2 * Lösung Gerlich

meine hemisphärische Korrektur der Integrallösung von Gerlich (1995)

Folglich verdoppelt sich die Lösung von Gerlich (1995) für die physikalische Temperatur auf Tagseite der Erde zu Tphys-hem = 2*(-129°C =144 K) = 2*144 K = 288 K oder 15°C

Ausführliche Herleitung: Anmer­kungen zur hemisphä­rischen Mittelwert­bildung mit dem Stefan-Boltzmann-Gesetz | EIKE – Europäisches Institut für Klima & Energie (eike-klima-energie.eu)