Positive Strahlenwirkungen – Teil 2: Wie ist das alles zu verstehen?

Dr. Lutz Niemann

siehe Teil 1). Dieser Schutzmechanismus tritt unterhalb des NOAEL-Wertes („No Observed Adverse Effect Level”) auf. In der Medizin spricht man von adaptiver Antwort und Impfungen sind eine segensreiche Anwendung.

Wie ist der Effekt der adaptiven Antwort oder Hormesis zu verstehen?

Der menschliche Körper besteht aus etwa lebenden 1014 Zellen. In jeder Sekunde sterben etwa 2 bis 3 Millionen Zellen und es wird die gleiche Anzahl von Zellen neu gebildet. Die Gesundheit der Zellen bestimmt die Gesundheit des Menschen. Wenn für den Körper lebenswichtige Zellen sterben, dann stirbt auch der Mensch. Das Leben des Menschen wird bestimmt durch das Leben der Zellen. In jeder Zelle des Menschen findet der lebensnotwendige Stoffwechsel statt. So werden in jeder Zelle in jeder Sekunde eine Million CO-Moleküle als Verbrennungsprodukt der in der Nahrung enthaltenen Nährstoffe gebildet, mit dem Blutkreislauf abtransportiert und über die Lunge ausgeatmet.

Das Immunsystem muss alle Fremdstoffe – auch schädliche Bakterien und schädliche Viren – bekämpfen. Durch eine Schnapspraline werden dem Körper 10²² giftige Alkoholmoleküle zugeführt, das ergibt rechnerisch für jede Zelle 100 Millionen abzubauende Giftmoleküle. Dieser Abbau gelingt ohne Probleme, der Mensch leidet nicht darunter. Durch den Abbau der Ethanol-Moleküle wird das Immunsystems trainiert, es ist gut für die Gesundheit des Menschen. Erst bei höherer Alkoholzufuhr gelingt der Giftabbau nicht reibungslos, der Mensch verspürt Vergiftungserscheinungen, die je nach Trainingszustand mehr oder weniger stark sind.

Alle Fremdstoffe, die vom Körper bekämpft werden müssen, sind in geringer Menge gut für das Immunsystem, denn sie trainieren es in seinen Fähigkeiten. Ein gut trainiertes Immunsystem kann den nächsten Angriff durch dieselben Fremdstoffe besser überstehen. Das ist ein Nutzen für den Körper.

Welche Dosis von Strahlung ist nützlich / schädlich?

Es ist zunächst zu klären, was eine Strahlendosis von 1 Milli-Sievert (1 mSv) bedeutet. Das kann man sich durch eine Rechnung an einem Beispiel klar machen: Man nehme zum Beispiel die Gamma-Strahlung von körpereigenen Kalium-40, berechne deren Dosis und schaue sich die Anzahl der von einem Gamma-Strahl getroffen Zellen an. Hier soll nur das Ergebnis mitgeteilt werden:

Ein Milli-Sievert bedeutet eine Strahlenspur pro Zelle.

Damit bedeutet der in Deutschland (und weltweit) geltende Grenzwert durch Zusatzbestrahlung in der Kerntechnik von 1 mSv pro Jahr, daß höchstens einmal im Jahr jede Zelle des Körpers von einem Strahlenteilchen durchquert werden darf und in der Zelle eventuell „Unheil“ anrichten darf. Ein Ereignis im Jahr ist verschwindend wenig im Vergleich mit den Lebensvorgängen in jeder Zelle wie Verbrennen von Kohlehydraten mit Bildung von einer Million Aschemolekülen CO2 in jeder Sekunde.

Prof. Dr. Ludwig E. Feinendegen formulierte (siehe hier)

Wie ist die Beobachtung der nützlichen Strahlenwirkung zu verstehen?

Durch ionisierende Strahlung werden Elektronen in den Molekülen der Zellen von ihren Plätzen entfernt. Soweit es sich dabei um Bindungselektronen handelt, bedeutet das chemische Veränderungen in den Zellen. Diese Veränderungen können von zellulären Abwehrmechanismen korrigiert werden. Zusätzliche Verlagerungen von Bindungselektronen bedingen wiederum Anregung für zusätzliche Korrekturprozesse in der Zelle. Es können alle Bindungselektronen mit mehr oder weniger gleicher Wahrscheinlichkeit getroffen werden, daher können alle möglichen chemischen Reaktionen in der Zelle angeregt werden. Somit können alle möglichen Korrekturreaktionen in den Zellen durch Training gestärkt werden. Das wiederum bedeutet sehr vielseitige Möglichkeiten, infolge Strahlung das Abwehr- und Immunsystem der Zellen zu stärken.

Bei der Gabe von Medikamente an Patienten geschieht ähnliches, aber es werden spezifische Reaktionen angeregt, immer nur in Bezug auf eine bestimmte Therapie einer Krankheit. Die Wirkung von Strahlung ist unspezifisch, vielseitiger als bei Medikamenten. So erklärt sich auch die Tatsache, daß schädliche Wirkungen von Chemikalien durch Vorbestrahlung gemildert oder vermieden werden können.

T.D. Luckey, M. Doss, W. Allison, C.L. Sanders geben Empfehlungen für optimale Dosis zum Erreichen einer biopositiven Wirkung, wobei das Training der Zellen wie bei sportlicher Aktivität gleichmäßig über die Zeit zu verteilen ist:

Die Zunahme des Krebsrisikos bei den Überlebenden der Kernwaffenexplosionen in Japan war ab 1,5 Sv in einer Zeit von Sekunden sicher zu beobachten (Teil 1, Bild 6). Das bedeutet für jede Zelle des Körpers 1500 Strahlenspuren durch jede Zelle. Da wird es verständlich, daß Schäden wie Störungen im Stoffwechsel der Zellen oder hin und wieder die Initiierung von Krebs auftreten können.

Folgende Übersicht zu den Dosisleistungen [Dosis / Stunde] zeigt die Bereiche von Schaden und Nutzen: Grün sind die Bereiche normal = ohne Wirkung unten, Nutzen in der Mitte und Gefahr oben

Rot = Bereich vom Co-60 Ereignis (rot) und dem von Luckey, Allison, Doss, Sanders empfohlenen nützlichen Dosisleistungsbereich (blau).

Die Dosisleistung in den „Todeszonen“ von Tschernobyl und Fukushima reicht bis in den Bereich der nützlichen Dosisleistung hinein. Dieser Nutzen war gering, aber messbar, siehe Bild 11 und 12 in Teil 1. Der Bereich der eindeutig positiven Strahlenwirkung wie beim Co-60-Ereignis in Taiwan wurde nicht erreicht.

Die Evakuierungen in Fukushima und Tschernobyl wurden gemacht, weil es die Gesetze erfordern. Dadurch wurde den Menschen eine Strahlendosis verweigert, die ihnen eventuell einen geringfügigen gesundheitlichen Nutzen hätte bringen können.

Die Evakuierungen in Fukushima selber brachten weit über 1000 Personen den Tod. Das ist bekannt, wird aber nur in den Fachmedien erwähnt. Nach anfänglichem Zögern wurden aus den Krankenhäusern sogar die Intensivpatienten abtransportiert, mit dem Tod von ca. 50 Patienten, weil deren Versorgung unterbrochen worden ist. Man weiß, daß Intensivpatienten nicht von den Versorgungsgeräten getrennt werden dürfen. Die Tatsache, daß dieses trotzdem gemacht worden ist, wirft ein trauriges Bild auf die Folgen des unsinnigen Gehorchens der Strahlenschutzgesetzgebung.

In Tschernobyl wurden etwa doppelt so viele Menschen aus ihren Wohnungen evakuiert wie in Fukushima. Es ist damit zu rechnen, daß dort auch doppelt so viele Menschen als Folge dieser Maßnahmen zu Tode gekommen sind.

Die bei den Unfällen von Tschernobyl und Fukushima nach „Recht und Gesetz“ (???) durchgeführten Evakuierungen waren falsch. Diese Maßnahmen brachten vielen Menschen Unglück bis zum Tod.

In Fukushima waren es über 1000 Todesopfer, in Tschernobyl vermutlich sehr viel mehr, denn dort wurden doppelt so viele Menschen aus ihren Wohnungen vertrieben. Die Strahlung in den Umgebungen der verunfallten Kernkraftwerke lag im unteren Bereich der Hormesis.

Hätte man die Menschen nicht evakuiert, dann hätten sie von der nützlichen Strahlenwirkung profitieren können. Dieses wurde ihnen durch die falschen Strahlen“schutz“ (???) gesetze verwehrt.
Die Gesetze sind falsch, hier ist dringende Korrektur erforderlich. Eine Initiative sollte dazu sollte von den Personen ausgehen, die die Zusammenhänge verstehen: Den Strahlenschutzauthoritäten

[1] T.D. Luckey, “The health effect of low dose ionization radiation”, J. Amer. Phys. Surgeons Vol. 13, 2, 39-42

[2] W. Allison, „Nuclear is for Life, A Cultural Revolution“, ISBN 978-0-9562756-4-6, Nov. 2015

[3] M. Doss, “Linear-No-Threshold Model vs. Radiation Hormesis”, Dose-Response, 11:495-512, 2013

[4] Ch. L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“ Springer-Verlag 2010

 




Klimawandel und Energiewende – der Skandal des Jahrhunderts

von Ulrich Wolff

Die Grundlage des vom IPCC kolportierten Klimawandels ist ein sog. „radiative forcing“ des CO2, eine konzentrationsabhängige Vergrößerung der energetischen Rückkopplung des atmosphärischen Treibhauseffektes um einige W/m2. (1) Weil die stochastische Komplexität des Wetters weder eine mathematische Lösung noch eine Messung erlaubt, werden vereinfachte Modelle benutzt, die nicht einmal Wechselwirkungen mit den dominanten Aerosolen des atmosphärischen Wasserkreislaufes erfassen können.

Verborgen bleibt daher, dass diese Aerosole die Interaktion des CO2 mit den Energieflüssen mit großer Wahrscheinlichkeit gegenläufig kompensieren. (2) Die so erhaltenen Zahlenwerte werden auf obskure Weise zu einer globalen mittleren Temperatur gewandelt. Es resultiert eine vorgeblich bedrohliche Abhängigkeit dieser Temperatur von der mit der Nutzung fossiler Brennstoffe steigenden Konzentration des CO2 in der Atmosphäre. Auch der Einfluss der Ozeane wird nicht beachtet. Folgend ist daher zu prüfen, ob und wie sich der Wärmespeicher Ozeane in dieses Konstrukt einordnet:

Dominante Wärmespeicher der Erde sind bekanntlich ihre Ozeane: 1.332 Milliarden Kubikkilometer Wasser mit einer mittleren Tiefe von 3.800 m bedecken 71 % der Erdoberfläche, besorgen exklusiv die Wasserversorgung des kleineren Festland Anteils und steuern wesentlich das Wetter und seine Statistik, das Klima. Ihre Enthalpie, ihren Wärmeinhalt kennzeichnet eine Wassertemperatur von 287±16K. Als Folge der Dichteanomalie des Wassers überschreitet nur ein kleiner Wasseranteil nahe der Oberfläche Temperaturen von 271- 274 K. Diese Temperaturen bewegen sich gegenwärtig zwischen 303 K am Äquator und 271 K in den Polarzonen.

Mit einem mittleren Zufluss von Solarenergie, der deutlich kleiner ist als 240 W/m2 hat sich das gesamte Wasser der Ozeane um etwa 255 K über eine Temperatur von 32 K erwärmt, die sich mit der Erdwärme allein einstellen würde. Der Erhalt dieses Zustandes ist nur möglich, wenn die Größenordnung der mittleren Durchflusszeit absorbierter Solarenergie durch das Wasser der Ozeane etwa 200 Jahre beträgt. (3) Diesen Vorgang kennzeichnen Wasserkreisläufe deren komplexe Struktur ihre mathematische Erfassung unmöglich macht.

Es überrascht, dass sich die lokalen Wassertemperaturen an der Oberfläche der Ozeane im Tagesverlauf nicht verändern. . Offenbar wird Strahlung weder an ihrer Oberfläche noch unmittelbar darüber absorbiert und in Wärme gewandelt. Das elimeniert auch ein vermeintliches „radiative forcing“ des CO2, das aber von den Modellen auch für die 71 % der Erdoberfläche, die von Ozeanen bedeckt sind, berechnet wird.

Den typischen Verlauf der Erwärmung der Ozeane im Volumen durch den Zufluss von Solarenergie – verstärkt durch die energetische Rückkopplung des atmosphärischen Treibhauseffektes – zeigt dagegen die Abb. 1. Dabei wird der Zufluss von Energie mit der Erwärmung an den Umlauf des Wassers gekoppelt.

Abb.1. Typischer vertikaler Temperaturverlauf

Als Folge der Erwärmung nimmt die Dichte des Wassers ab. Es entsteht z. B. (bei einem mittleren Salzgehalt) aus einem Temperaturanstieg um 25 K ein Auftrieb von 3,5 Kg/m3. Erwärmtes Wasser fließt nach oben ab, so dass der Wind den Antrieb schneller warmer Strömungen an der Oberfläche übernehmen kann. Auf der kalten unteren Seite der Kreisläufe erzeugt der mit dem Absinken des Wassers steigende Druck über die steigende Dichte mehr Abtrieb.

Abb. 2 Vertikaler Temperaturverlauf global. (Quelle Wikipedia

Fazit: Aus der Atmosphäre eintreffende Strahlung wird im Volumen des Wassers der Ozeane absorbiert und in Wärme gewandelt und hat keinen Einfluss auf die Wasser- und Lufttemperatur an der Oberfläche. Das gilt auch für Beiträge des CO2 unabhängig von seiner Konzentration. Der angebliche CO2 Klimawandel wird zu einem unbegründeten unsinnigen Angstobjekt. Aus Sicht des Klimas gibt es daher keinen Grund für eine Energiewende, die einen Verzicht auf die Nutzung fossiler Brennstoffe einfordert.

Hinweise:

(1) https://de.scribd.com/document/632193222/Klima-IPCC-und-die-Wissenschaftler-der-Mehrheit

(2) https://de.scribd.com/document/413528852/Atmospha-risches-Kohlendioxid-tra-gt-nicht-zur-Erwa-rmung-bei

(3) https://de.scribd.com/document/391176117/Erderwarmung-Treibhauseffekt-und-Zeit-CO2-ist-klimaneutral

 




Klimalatein für Laien 2

Fühlen Sie sich auch oft hilflos, wenn uns sogenannte Fachleute mit Horrormeldungen über den angeblichen Klima-Weltuntergang bombardieren? Für normale Bürger, die nicht mindestens einen Doktortitel in Atmosphärenphysik oder dergleichen haben, scheint es fast unmöglich zu sein, hierbei richtig von falsch zu unterscheiden. Reflektieren die sogenannten Treibhausgase wirklich so viel Infrarotenergie auf die Erde zurück, dass deshalb deren Temperatur dramatisch steigt? Keine Sorge, es gibt recht einfache Möglichkeiten, sich ein Bild davon zu machen, worum es tatsächlich geht. Auch ohne hochwissenschaftliche Ausbildung haben die meisten Menschen ausreichend gesunden Menschenverstand, um zu begreifen, wie heftig und chaotisch enorme Energieströme ständig zwischen Erdoberfläche und der Atmosphäre hin- und herschwappen.

Von Fred F. Mueller

Abb. 1. Die Sonne und die Wolken – hier eine dünne hohe Wolkendecke und einige Flugzeug-Chemtrails – sind die Hauptantriebskräfte für die Energieflüsse, die unser Klima bestimmen. Die „Treibhausgase“ sind – wenn überhaupt – nur ein untergeordneter Faktor

In Teil 1 haben wir uns mit der beklagenswerten Tendenz der Klimawandel-Apologeten befasst, die faktische Komplexität und Variabilität der Parameter, die unser Klima beeinflussen, zu reduzieren, indem sie sich auf einen einzigen Aspekt – die so genannten „Treibhausgase“ – konzentrieren und unter diesen auf den erklärten schlimmsten Bösewicht, das CO2 . Ihr Gehalt in der Atmosphäre wird zu dem einzigen Faktor1) erklärt, der unser Klima und damit die Temperatur der Erde bestimmt. Der Effizienz dieses einen Parameters wird die Kraft zugeschrieben, den derzeit positiven weltweiten Temperaturtrend auf + 1,5 °C zu begrenzen, was die Politiker dazu veranlasst, ein Restbudget für CO 22) von 400 Milliarden Tonnen festzulegen, das auf die einzelnen Nationen innerhalb enger Grenzen aufgeteilt und zugewiesen wird. Diese nationalen Budgets werden dann wiederum unterteilt und den verschiedenen Industriezweigen und der Bevölkerung auferlegt, was schwerwiegende Folgen für das Wohlergehen der Gesellschaft hat, z. B. für die Zement- und Metallproduktion, die Bau- und Heizungsstandards oder die private Pkw-Nutzung. Alle anderen Variablen, die sich auf den Energiehaushalt unseres Planeten auswirken, wie z. B. Wasserdampf, der eigentlich ein viel stärkeres „Treibhausgas“ ist als CO2, werden einfach ignoriert, indem sie entweder als Konstanten oder als bloße Verstärkungsfaktoren behandelt werden. Der Einfluss von Wolken – den anderen Aggregatzuständen von Wasser in der Atmosphäre – wird schlicht und ergreifend unterdrückt.

Interessante Diskrepanzen in Bezug auf Wolken

Eine der auffälligsten methodischen Ungenauigkeiten (wenn nicht gar Unwahrheiten) der gegenwärtigen Klimawissenschaft zeigt Abb. 2, ein von der NASA erstelltes Diagramm, das vorgibt, einen realistischen Eindruck von den Energieflüssen auf der Erdoberfläche und in der Atmosphäre zu vermitteln.

Abb. 2. Diese von der NASA erarbeitete Darstellung der Energiestromdichten auf der Erde ist in Bezug auf einige entscheidende Fakten irreführend (Bild von NASA3), public domain) (Hinweis: Dieses Bild und der entsprechende Link wurden nach Fertigstellung des Artikels zurückgezogen. In einem späteren Teil werden die Ersatzgrafik und ihre Änderungen ausführlich behandelt. Diese Grafik und ihre Fehler wurden jedoch über einen längeren Zeitraum angezeigt, so dass eine angemessene Diskussion gerechtfertigt ist).

Dieses Bild ist, um es höflich auszudrücken, ein wenig irreführend, wenn es um die Rolle der Wolken geht. In dieser Grafik sehen wir, von links nach rechts, nur drei Darstellungen von Wolken. Das Wolkensymbol links absorbiert keine Energie; seine einzige Aufgabe besteht augenscheinlich darin, zusammen mit der Atmosphäre einfallende Sonnenstrahlung zu reflektieren, ohne dass der Anteil der beiden Teilnehmer im Einzelnen angegeben wird. Die Wolke in der Mitte ist eine ausschließlich emittierende Einheit (!), die 29,9 W/m2 durch das atmosphärische Fenster in den Weltraum abstrahlt, ohne dass ein erkennbarer Energieeintrag erfolgen würde. Das Wolkensymbol auf der rechten Seite schließlich nimmt eine konstante Energiezufuhr von 86,4 W/m2 auf, ohne dass eine erkennbare Abgabe zu erkennen wäre. Für jeden mit wissenschaftlicher Grundausbildung ist dieser Verstoß gegen den Energieerhaltungssatz ein schallender Schlag ins Gesicht. Selbst wenn man die verschiedenen Input- und Output-Zahlen in Bezug auf die drei Wolkensymbole aufaddiert, bleibt eine unerklärliche Bilanzdifferenz von +56,5 W/m2. Diese Diskrepanz rechtfertigt ein gewisses Maß an Misstrauen in Bezug auf die in Abb. 2. dargestellte Rolle der Wolken in atmosphärischen Energieströmen.

Abb. 3. Die Globalstrahlungs-Energieflussdichte der Sonne an zwei nahe beieinander liegenden Tagen mit stark unterschiedlicher Bewölkung im Juli 2022 (Grafik: Autor, eigene Berechnung mit Werten aus Kachelmannwetter 4))

Wolken – eine schwer fassbare, aber entscheidende Klimavariable

Zu diesem Zweck werden wir die Wolken bezüglich ihrer Auswirkungen auf Strahlungs-Energieströme in der Atmosphäre betrachten. Wolken sind das Ergebnis einer Übersättigung der Luft mit Wasserdampf infolge sinkender Temperaturen. Diese Luft enthält zudem eine gewisse Menge an Aerosolpartikeln, die als Keim für die Kondensation dienen. Beides zusammen führt zur Bildung von mikroskopisch kleinen Wassertröpfchen oder Eiskristallen innerhalb einer Luftblase, die zu 100 % mit Wasserdampf gesättigt ist. Der Hauptunterschied zu Luft, die lediglich zu 100 % mit Wasserdampf gesättigt ist, aber weder Tröpfchen noch Eispartikel enthält, besteht darin, dass reiner Wasserdampf für sichtbares Licht transparent ist, während Wolken sichtbar sind und eine erstaunliche Vielfalt an Größen, Formen und Farben aufweisen können.

Abkühlungseffekt: Wolken verhindern, dass Sonnenenergie die Erde erreicht

In einem ersten Ansatz klammern wir zunächst alle anderen Aspekte mit Ausnahme der Reflexion, Absorption und Emission von Licht, sei es im sichtbaren oder im Infrarotbereich, aus. Im Gegensatz zu Wasserdampf, der mit Infrarot (IR)-Photonen ausschließlich in molekülspezifischen Frequenzbändern reagiert, interagieren die winzigen Teilchen in Wolken mit den genannten Strahlungsphotonen ebenso wie andere feste oder flüssige Körper. Die Teilchen lenken sichtbares Licht ab, brechen oder reflektieren es, so dass unter bestimmten Bedingungen Regenbögen entstehen. Darüber hinaus absorbieren sie auch Licht, wie man an der wechselnden Farbe von Kumuluswolken erkennen kann, die oben strahlend weiß erscheinen und nach unten hin dunkler werden. Aufgrund ihrer sehr unterschiedlichen Größe und Struktur kann ihr Reflexionsgrad (auch Albedo genannt)5) – d. h. der Anteil des einfallenden Sonnenlichts, der in den Weltraum zurückreflektiert wird – zwischen ~10 % bei Cirruswolken und bis zu 90 % bei Cumulonimbuswolken variieren. Mit anderen Worten: Eine große Wolke kann bis zu 90 % der einfallenden Sonnenenergie daran hindern, die Erdoberfläche zu erreichen. Das bedeutet, dass die sich ständig verändernde Wolkendecke der Erde tagsüber wie ein variabler Deckel oder Filter funktioniert, der bestimmt, wie viel Energie wir an der Oberfläche erhalten. Die maximal auftretende Differenz der Energiestromdichten zwischen diesen beiden Tagen beträgt 715 W/m2, siehe Abb. 4.

Abb. 4. Diese Grafik zeigt die absoluten Unterschiede zwischen den solaren Energiestromdichten des 2. Juli und des 7. Juli 2022 in der Region Konstanz in Deutschland. Die schwarze Linie, welche die 3,22 W/m2 darstellt, die dem kombinierten Effekt der Treibhausgase zugeschrieben wird, ist nicht mehr von der x-Achse zu unterscheiden

Diese maximale Differenz von 715 W/m2 ist mehr als das 222-fache der 3,22 W/m2 , die dem Klimaeffekt der wichtigsten Treibhausgase zugeschrieben werden. In Abb. 4. ist die entsprechende schwarze Linie nicht einmal von der x-Achse zu unterscheiden. Man muss kein Einstein sein, um diesen Zusammenhang zu verstehen. Die unmittelbare praktische Erfahrung bestätigt die Tatsache, dass eine stärkere Bewölkung verhindert, dass die Umgebungstemperaturen so hoch ansteigen, wie es bei sonnigeren Bedingungen der Fall wäre.

Noch schlimmer für das Gerede von der „Wasserdampfverstärkung“, das derzeit von unseren Klimawissenschaftlern vorgebracht wird, ist, dass der für jeden der Tage separat aufaddierte solare Eingangsfluss 7,2 kWh/m2 bzw. 4,1 kWh/m2 beträgt, während sich im Vergleich dazu der den Treibhausgasen zugeschriebene 24-Stunden-Effekt auf nur 0,075 kWh/ m2 beläuft. Die Differenz zwischen dem solaren Input für beide Tage beträgt 3,1 kWh/m2 ein Wert, der 40 Mal höher ist als der angebliche Beitrag der Treibhausgase.

Aufheizeffekt: Wolken emittieren erhebliche Mengen an IR-Energie

Darüber hinaus halten Wolken nicht nur enorme Mengen an Sonnenenergie davon ab, den Boden zu erreichen, indem sie die entsprechende Strahlung zurück ins All reflektieren. Sie haben noch eine weitere Eigenschaft, die sich am besten verstehen lässt, wenn man annimmt, dass sie sich in Bezug auf die IR-Strahlungsenergie wie massive Körper verhalten (in Wirklichkeit ist der genaue Mechanismus komplizierter). Lassen Sie sich nicht von der Tatsache täuschen, dass Wolken scheinbar keine Masse haben, da sie hoch in der Luft schweben, ohne an Höhe zu verlieren, und den Winden ausgeliefert sind. Trotz ihrer scheinbaren Schwerelosigkeit haben Wolken eine beträchtliche Masse, die manchmal sogar eine Tonne pro Quadratmeter übersteigen kann. Dies wird deutlich, wenn ihr Wassergehalt als Regen auf die Erde fällt. Schon 50 mm Regen entsprechen einer Wassermasse von 50 kg/m2, und die entsprechenden Wolken ziehen in der Regel weiter in Richtung Horizont, ohne erkennbar durchsichtiger zu werden. In einer Sammlung extremer Wetterereignisse, die von der Weltorganisation für Meteorologie6) zusammengestellt wurde, wird eine einstündige Niederschlagsmenge von 305 mm und eine 12-stündige Niederschlagsmenge von 1.144 mm angegeben, was einer Wassermasse von 305 kg und 1.144 kg pro Quadratmeter Wolkendecke entspricht.

Diese beträchtlichen Wassermassen am Himmel emittieren IR-Strahlung, die ihre Temperatur gemäß dem von Stefan und Boltzmann7) aufgestellten physikalischen Gesetz charakterisiert. An Regentagen reicht die Basis der Schlechtwetterwolken oft bis auf wenige hundert Meter über dem Boden. Sie hat die Temperatur der Umgebungsluft in dieser Höhe, die schätzungsweise 2-5 °C unter der Temperatur am Boden liegt (die Lufttemperatur sinkt mit der Höhe in der Regel um etwa 6,5 °C/ 1.000 m). Die Kenntnis der Temperatur der Wolkenbasis liefert somit den Input für die Berechnung der IR-Ausgangsflussdichte der Wolke in Richtung Boden. Damit kommen wir zum ersten interessanten Tipp, wenn es darum geht, wesentliche Energieflüsse im System Erde/Atmosphäre für den gegebenen Standort abzuschätzen, siehe Abb. 5.

Bewertung der nach unten gerichteten IR-Strahlung einer Wolke

Mithilfe hochentwickelter Instrumente können Meteorologen heutzutage die abwärts gerichtete IR-Emissionsflussdichte von Wolken und anderen Quellen (wie der wolkenlosen Atmosphäre, die hauptsächlich Wasserdampf, Aerosole und Treibhausgase enthält) genau messen. Gleichzeitig haben Fortschritte in der Massenproduktion von IR-Thermometern dazu geführt, dass die Öffentlichkeit für ein paar Dutzend Euro im nächsten Baumarkt recht brauchbare Instrumente kaufen kann (für die Messung von Wolken ist übrigens ein Modell mit einer Mindesttemperaturgrenze von etwa -50 °C einem Modell vorzuziehen, das auf nur -20 °C begrenzt ist). Mit einem solchen Gerät ist es erstaunlich einfach, die Temperatur des Bodens und der Wolkenbasis an derselben Stelle innerhalb von nur etwa einer Minute zu messen, siehe Abb. 5.

Abb. 5. Mit modernen Infrarot-Oberflächenthermometern (1), die in Baumärkten erhältlich sind, kann man leicht die Oberflächentemperatur des Bodens und der Wolkenbasis messen. (2)=Bodentemperatur 13. Januarth , 2013, (4)=Wolkendecke über dem Boden und (5)=der zugehörige Temperaturwert

Achten Sie hierbei darauf, direkt auf dem Boden zu messen (nackte Erde oder kurzer Rasen) (2), da insbesondere an heißen Sommertagen Steine, Metalle und Asphalt (3) Temperaturen erreichen können, die manchmal recht erheblich (>10 °C) über dem Bodenniveau liegen. Andererseits liefern zu dünne Wolken, wie z. B. Zirruswolken (6), keine gültigen Messwerte. Versuchen Sie nicht, einzelne Wolken zu messen, die von klarem Himmel umgeben sind, da das Messgerät einen ziemlich weitwinkligen Eingangskegel hat und fast zwangsläufig Teile des klaren Himmels mit einbezieht, was zu einem ungültigen Messwert führt. Die Messung von Boden und Wolken sollte möglichst vertikal und immer zum gleichen Zeitpunkt erfolgen. (Nebenbei bemerkt können solche IR-Thermometer im Winter in Ihrem Haus helfen, die Qualität Ihrer Außenwandisolierung zu beurteilen. Vergleichen Sie einfach die Messwerte von Innen- und Außenwänden (oder Fenstern) oder die Werte aus der Mitte Ihrer Außenwand mit denen aus jener Ecke, in welcher der verflixte Schimmelfleck trotz aller eingesetzten Chemikalien immer wieder auftaucht).

Berechnung von IR-Energiestromdichten aus Oberflächentemperaturen

Dank der Verfügbarkeit solch einfacher und kostengünstiger Mittel zur Messung der Boden- und Wolkentemperaturen können auch Laien zwei der vier wichtigsten Strahlungsenergieströme, die die Energiebilanz an einem bestimmten Ort beeinflussen, leicht berechnen. Diese „großen Vier“ sind:

(1) die örtliche solare Globalstrahlung8),

(2) die von der aktuellen Oberflächentemperatur am Boden abhängige aufsteigende IR-Strahlung und

(3) die von der Wolkendecke ausgehende absteigende IR-Strahlung.

(4) die „klimabestimmende“ abwärtsgerichtete IR-Strahlung der „Treibhausgase“ von 3,22 W/m2

Die erste Zahl erhalten Sie, wenn Sie auf den Homepages der lokalen Wetterstationen nach einer Station suchen, die über die entsprechenden Instrumente verfügt, um diese Aufgabe zu erfüllen. Oder sie schauen bei Kachelmannwetter nach. Darüber hinaus wurden an dieser Stelle einige andere wichtige Energietransportmechanismen wie Verdunstung, Konvektion und Regen vorerst beiseite gelassen, um das grundlegende Verständnis der durch Strahlung bestimmten Energieströme zu erleichtern, da wir uns in diesem Kapitel auf die Strahlungsmechanismen konzentrieren, die den so genannten „Treibhausgasen“ zugeordnet werden.

Im Folgenden wollen wir uns zunächst mit einer einfachen Methode zur Bewertung der Faktoren (2) und (3) befassen. Wie bereits in Teil 1 erwähnt, gibt es frei zugängliche Internetdienstleister wie Spectralcalc9) , bei denen man Temperaturwerte eingeben kann und sofort eine Zahl (und idealerweise eine Grafik) für die Leistungsflussdichte der von einer Oberfläche emittierten IR-Strahlung erhält. (Die hier vorgestellten Ergebnisse wurden mit den von einer gut ausgestatteten meteorologischen Station in Deutschland10) veröffentlichten Zahlen abgeglichen. Die Unterschiede lagen lediglich im niedrigen einstelligen Prozentbereich). Bei der Eingabe der Parameter ist zu beachten, dass die Emissionsgrade in dem betreffenden Temperaturbereich sehr nahe bei 1 liegen und dass die Grenzen der Wellenlängenausgabe auf 4 und 40 µm eingestellt werden sollten. Überprüfen Sie außerdem, ob Sie die richtige Temperaturskala (°C oder Kelvin) gewählt haben. Unter Verwendung der Werte aus Abb. 5 ergeben sich die in Abb. 6 dargestellten Energiestromdichten.

Abb. 6. Energiestromdichten der IR-Strahlung vom Boden und von einer kompakten Wolkendecke, die vermutlich in etwa 800 m Höhe schwebt (Grafiken: Spectralcalc9), Autor)

Um noch einmal Größenordnungen zu vergleichen: Die von der Wolke ausgehende abwärts gerichtete Strahlungsdichte von etwa 297 W/m2 ist 92-mal höher als der angebliche „Strahlungsantrieb“ der wichtigsten „Treibhausgase“.

(Für Leser, die solche Berechnungen selbst durchführen wollen, zeigt Abb. 7. eine vereinfachte Gleichung, die einigermaßen genaue Ergebnisse liefert)

Abb. 7. Eine vereinfachte Berechnung für IR-Emissionen, welche die Flussdichte in W/m2 liefert

Die entscheidende Doppelrolle der Wolken

Wie gezeigt wurde, stimmen die Messergebnisse nicht mit der offiziellen Klimawissenschaft überein, die den Einfluss von CO2 und den anderen „Treibhausgasen“ stark übertreibt und gleichzeitig die entscheidende Rolle des Wassers in seinen vernachlässigten Aggregatzuständen in der Atmosphäre (Wolkenbildung mit Tröpfchen oder Eispartikeln) verschweigt. Wie in diesem Kapitel gezeigt wurde, stellt diese offizielle Haltung eine grobe Entstellung der Realität dar. Wolken spielen eine doppelte Rolle bei der Energieübertragung in der Atmosphäre. Sieht man einmal von der Energieübertragung durch andere Mechanismen wie Verdunstung/Kondensation und Konvektion ab, so haben wir gesehen, dass Wolken allein dadurch, dass sie tagsüber das einfallende Sonnenlicht abblocken und nach unten gerichtete IR-Strahlung sowohl tagsüber als auch nachts emittieren, als Kühl- und Heizflächen fungieren und Energie in Mengen übertragen oder abblocken können, die den angeblichen Beitrag der „Treibhausgase“ buchstäblich in den Schatten stellen. Ein weiterer Faktor, der ebenfalls berücksichtigt werden muss, ist die Blockierung der IR-Strahlung, die von der Erdoberfläche ständig abgegeben wird. Wolken können einen sehr hohen Prozentsatz dieser Strahlung absorbieren und einen großen Teil davon wieder nach unten emittieren, wodurch sie im System Erde/Atmosphäre hin- und herwandert, eine Rolle, die einige Klimaschützer ausschließlich den „Treibhausgasen“ zuschreiben, wie Abb. 8 zeigt, siehe auch das erste Kapitel dieses Artikels1) .

Abb. 8. Das irreführende wolkenfreie Einleitungsbild des Wikipedia-Kapitels über den „Treibhauseffekt“ (Autor: Efbrazil11) , CC 4.0)

Die Klimarealität wird also in hohem Maße durch ein komplexes Zusammenspiel aller Funktionen von Wolken – einschließlich Niederschlag, Konvektion, Strahlungserwärmung und Strahlungskühlung – in Kombinationen geprägt, die die derzeitige Wissenschaft nicht modellieren und noch weniger glaubwürdig vorhersagen kann. Es sei darauf hingewiesen, dass eine bestimmte Wolke je nach Tageszeit ihre Gesamtfunktion von Erwärmung zu Abkühlung ändern kann. Diese Wechselwirkungen können mit hochentwickelten Geräten überwacht werden, über die bisher nicht viele Wetterstationen verfügen. Wenn man bedenkt, dass Klima als der durchschnittliche Verlauf der Wetterbedingungen an einem bestimmten Ort über einen Zeitraum von vielen Jahren definiert ist, bedeutet dies, dass die bestehenden Netze meteorologischer Stationen dringend mit den erforderlichen Instrumenten, der Software und der Ausbildung der Mitarbeiter aufgerüstet werden sollten.

Das nächste Kapitel befasst sich mit einigen interessanten meteorologischen Ergebnissen auf professioneller Ebene, die unterstreichen, dass Wolken und nicht Treibhausgase und Energiebilanzen und nicht die Lufttemperaturen in 2 m Höhe über dem Boden die entscheidenden Hebel sind, um Veränderungen in unserem Klima zu beurteilen.

Quellen

https://eike-klima-energie.eu/2023/02/13/klimalatein-fuer-laien/

  1. https://climate.nasa.gov/ask-nasa-climate/3143/steamy-relationships-how-atmospheric-water-vapor-amplifies-earths-greenhouse-effect/

https://www.carbonindependent.org/122.html#:~:text=This%20400%20billion%20tonnes%20is%20known%20as%20the,divide%20this%20residual%20CO%202%20budget%20between%20countries

Das Bild und der entsprechende Link wurden nach Fertigstellung dieses Artikels aus dem Internet entfernt

https://kachelmannwetter.com/de/messwerte/baden-wuerttemberg/globalstrahlung-10min/20220621-1000z.html

https://www.nln.geos.ed.ac.uk/courses/english/ars/a3110/a3110008.htm

  1. https://wmo.asu.edu/content/world-meteorological-organization-global-weather-climate-extremes-archive

https://en.wikipedia.org/wiki/Thermal_radiation

https://www.smhi.se/en/climate/climate-indicators/climate-indicators-global-radiation-1.91484

https://www.spectralcalc.com/blackbody_calculator/blackbody.php

https://wettermast.uni-hamburg.de/frame.php?doc=Home.htm

https://en.wikipedia.org/wiki/Greenhouse_effect

 




Die dunkle Seite unserer Erde und der meridionale Energietransport

Wikipedia: Earthrise, Farbbild, von Bill Anders – gemeinfrei

 

von Uli Weber

Erst ein sogenannter „natürlicher atmosphärischer Treibhauseffekt“ (THE) von konstant 33°C als Differenz zwischen einer physikalisch fehlerhaft mit dem Stefan-Boltzmann-Gesetz berechneten globalen „Gleichgewichtstemperatur“ von -18°C und einer gemessenen Durchschnittstemperatur von 15°C soll unsere Erde bewohnbar machen. Dabei wird unterstellt, dass die Erde durch eine antiphysikalische atmosphärische Gegenstrahlung ihrer eigenen IR-Abstrahlung von kalt zu warm noch weiter erwärmt werden soll.

Wir haben für den vorgeblichen THE also angeblich die folgende Wirkungskette:

  • Primär: Solare HF-Einstrahlung
  • Sekundär: Terrestrische IR-Abstrahlung
  • Tertiär: Atmosphärische IR-Gegenstrahlung (THE) der terrestrischen IR-Abstrahlung

Je weiter man sich aber zur Sonnenwende dem Winterpol der Erde nähert, umso länger werden die Nächte; zum Sommerpol hin werden die Nächte dagegen immer kürzer. Offenbar hat beides keinen Einfluss auf den vorgeblich konstanten THE von 155 W/m², obwohl die tageszyklische Menge primärer Energie, das Sonnenlicht, vom Sommerpol zum Winterpol hin stark abfällt. Dieser Umstand hat aber sicherlich erhebliche Auswirkungen auf die terrestrische Abstrahlung und müsste damit wiederum zwingend Rückwirkungen auf den sogenannten THE haben. Denn wenn die sogenannte atmosphärische Gegenstrahlung von der terrestrischen Abstrahlung gespeist wird, dann spielen die spezifische Strahlungsleistung der Sonne und der Zeitraum der nächtlichen Dunkelheit eine elementare Rolle für die Größe des sogenannten THE haben. Überall dort, wo kein Sonnenlicht einfällt (Winterpol), müsste sich ein solcher THE dann immer weiter bis auf null reduzieren.

Die Temperaturverteilung auf unserer Erde stellt ein eingeschwungenes System dar. Die „Wärmespeicher“ unserer Erde, Atmosphäre und Ozeane, sind im Einklang mit der aktuellen terrestrischen Albedo gefüllt und die solare Einstrahlung muss bei gleichbleibender globaler „Durchschnittstemperatur“ lediglich den täglichen Abstrahlungsverlust ersetzen. Im herkömmlichen THE-Paradigma wird der Nachtseite der Erde aber eine Temperatur von 0 Kelvin zugerechnet, um die THE-Argumentation zu stützen. Doch nicht einmal am winterlichen antarktischen Kältepol werden 0 Kelvin erreicht, die tiefste dort jemals gemessene Temperatur beträgt vielmehr knapp (-100°C).

C:\Users\Uli\Documents\Ablage & Archiv\Veröffentlichungen\2022\Material\Eschenbach.png Abbildung: Globale Durchschnittstemperaturen 2000 – 2020
Quelle: Willis Eschenbach mit Daten der NASA

Die Erde entstand vor 4,6 Milliarden Jahren als heißer Glutball aus dem Sonnennebel. Nach Differenzierung unterschiedlich dichter Materialien und Abkühlung entwickelte sich eine feste Oberfläche, auf der später die Ozeane entstanden. Unsere Erde ist also so lange abgekühlt, bis sich Einstrahlung und Abstrahlung bei einer bestimmten Albedo und einer damit vorgegebenen Temperaturverteilung gerade ausgeglichen haben. Diese Temperaturverteilung ist nicht konstant, sondern schwankte mit der Albedo über Warm- und Kaltzeiten; einen möglichen Wirkmechanismus hatte ich hier skizziert. Temperaturschwankungen des Klimas können demnach nur durch eine Veränderung der solaren Einstrahlung oder der Albedo unserer Erde verursacht werden. Das S-B-Temperaturäquivalent der solaren Einstrahlung schwankt auf unserer Erde zwischen maximal ca. 394 Kelvin (ca. 121 °C ohne Albedo) bei vertikalem Sonnenstand und 0 Kelvin auf der Nachtseite. Das heißt nun aber nicht, dass auf der Nachtseite 0 Kelvin herrschen würden, wie es das THE-Paradigma voraussetzt. Die sogenannte „gemessene globale Durchschnittstemperatur“ (NST) von etwa 15°C wird vielmehr über die gemessenen Temperaturen aller Breitenkreise auf der Tag- und Nachtseite sowie Frühling, Herbst und Winter ermittelt. Etwa die Hälfte der gemessenen Datenpunkte stammt also immer von der Nachtseite. Die NST ist also die „gemessene Durchschnittstemperatur“ der gesamten Erde. Irgendeine Nachttemperatur von 0 Kelvin hat es auf unserer Erde niemals gegeben. Wir leben vielmehr in einem „eingeschwungenen“ Temperatursystem, in dem sich Ein- und Ausstrahlung die Waage halten. Die Temperaturen der Tagseite, insbesondere die der Wärme speichernden Ozeane, werden im 24h-Tagesverlauf auf die Nachtseite mitgenommen und fungieren hier als Wärmespeicher mit mäßiger Abkühlung, deren Energie durch die atmosphärischen Strömungen auf die Landmassen übertragen wird.

Für jeden originären örtlichen Temperatur-Datenpunkt, der dieser Abbildung zugrunde liegt, sind also die dort tatsächlich gemessenen Temperaturen von Tag und Nacht sowie Frühling, Sommer, Herbst und Winter als einzelner Mittelwert über mehr als zwanzig Jahre eingegangen. Dabei spielt der meridionale Energietransport aus Tropen und Subtropen in die Polarzonen hinein eine ganz wesentliche Rolle. Die nachfolgende Abbildung hatte ich schon in vielen Artikeln zur Beweisführung für meinen hemisphärischen S-B-Ansatz herangezogen, und zwar zuerst in dem Artikel, „Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!“ (2017):

https://eike-klima-energie.eu/wp-content/uploads/2019/11/ana2_1-640x401.png

Abbildung: „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite“ nach HÄCKEL, H. (1990): Meteorologie. – 8. Aufl. 2016; Stuttgart (Verlag Eugen Ulmer), ISBN 978-3-8252-4603-7)

Dieser meridionale Energietransport auf unserer Erde wird ausführlich von Javier Vinós & Andy May im Teil 3 ihrer Wintergate-Hypothese beschrieben. Dort wird in Abbildung 3.5 dessen Funktionsweise dargestellt:

Javier Vinós & Andy May – Abbildung 3.5 mit Text: Meridionaler Transport von Energie (links) und Drehimpuls (rechts), der sich aus dem beobachteten Zustand der Atmosphäre ergibt. https://eike-klima-energie.eu/wp-content/uploads/2022/08/sun_05-1.png

Erklärung, Zitat Vinós & May:Im Energiehaushalt gibt es einen Netto-Strahlungsgewinn in den Tropen und einen Netto-Verlust in hohen Breitengraden. Um den Energiehaushalt in jedem Breitengrad auszugleichen, ist ein polwärts gerichteter Energiefluss erforderlich, wie in Abb. 3.5 dargestellt. Im Drehimpulshaushalt gewinnt die Atmosphäre in niedrigen Breiten durch östliche Oberflächenwinde Drehimpuls und verliert ihn in den mittleren Breiten durch westliche Oberflächenwinde. Ein polwärts gerichteter atmosphärischer Drehimpulsfluss ist impliziert. Es ist bekannt, dass der meridionale Energie- und Impulstransport durch ENSO, die quasi-bienniale Oszillation und die Sonnenaktivität moduliert wird. Abb. 3.5 ist nach Marshall & Plumb 2008

Bei diesem meridionalen Transport kommt es zu einem Paradoxon:

In den polaren Zonen unserer Erde trifft der Energietransport aus niederen Breiten auf tiefgründigen Permafrost.

Die nachstehende Abbildung zeigt den Permafrost auf der Nordhalbkugel:

https://wiki.bildungsserver.de/klimawandel/upload/Permafrost_NH.jpgAbbildung: Ausdehnung von Permafrost auf der Nordhalbkugel: terrestrischer und submariner Permafrost. Blauabstufungen: zusammenhängender Permafrost, unzusammenhängendes Vorkommen, sporadisches Vorkommen, isolierte Flecken, submariner Permafrost
Quelle: European Environment Agency (2017): The Arctic environment. European perspectives on a changing Arctic Lizenz: © European Environment Agency, 2017, “Reproduction is authorised provided the source is acknowledged.”

Nachfolgend eine Erklärung zum Vorkommen von Permafrost aus Wikipedia mit Hervorhebungen:

Permafrost bildet sich zumeist dort, wo die Jahresdurchschnittstemperatur −1 °C und der Jahresniederschlag 1000 Millimeter nicht übersteigen. Die großen Permafrostareale der Erde liegen daher in den Polargebieten mit den arktischen und antarktischen Tundren, in Teilen der borealen Nadelwaldgebiete, aber auch in anderen Gebieten, welche die Voraussetzungen für Permafrost erfüllen, so die meisten Hochgebirge der Erde. Als Permafrostzone bezeichnet man das zirkumpolare Gebiet ewiger Gefrornis, das die Tundra der Nordkontinente, die großen Waldgebiete sowie offshore Zonen des Meeresbodens umfasst. Grönland liegt zu 99 %, Alaska zu 80 %, Russland zu 65 %, Kanada zu 40 bis 50 % und China bis zu 20 % in der Permafrost-Zone.[21] Nach Süden reichen einige Permafrostgebiete bis in die Mongolei. Dabei bedeutet eine Lage innerhalb der Permafrost-Zone nicht automatisch eine Unterlagerung mit Permafrost für jeden individuellen Standort, sondern man unterscheidet Zonen kontinuierlichen (>90 Flächenprozent), diskontinuierlichen (>50–90 Flächenprozent), sporadischen (>10–50 Flächenprozent) und isolierten (<10 Flächenprozent) Permafrosts.
Auch dringt der Permafrost unterschiedlich tief in den Untergrund ein:
In Sibirien werden Tiefen bis zu 1500 Metern erreicht, in den zentralen Teilen Skandinaviens oft nur etwa 20 Meter. Gründe dafür liegen in der großen Kontinentalvergletscherung der letzten Eiszeit (Weichsel-Kaltzeit): Sibirien hingegen war nicht in größerem Maße vergletschert, daher war der Untergrund der Kaltluft ausgesetzt, so dass er bis in sehr tiefe Lagen gefrieren konnte. Hingegen war der Kernbereich Skandinaviens durch einen mächtigen Eisschild isoliert, wodurch der Permafrost nicht so tief eindringen konnte.“

Der Permafrost kann also bis zu 1.500 Meter tief in die Erdkruste hineinreichen. Wie kann das sein? Offensichtlich reicht die Isolierung durch die Atmosphäre nicht aus, damit der Wärmefluss aus dem heißen Erdinneren den Erdkörper bei fehlender/geringer Sonneneinstrahlung bis an die Oberfläche über den Gefrierpunkt von Wasser erwärmen kann. Der Unterschied zwischen den Polarregionen und der übrigen Erdoberfläche besteht im Wesentlichen in der Sonnenscheindauer und deren Intensität. Wenn unsere Erde also nicht von der Sonne beheizt werden würde, dann hätten wir tatsächlich überall eine „Snowball-Earth“ mit einem sehr tief reichenden Permafrost. Erstaunlich ist, dass das Thema Permafrostbildung bis heute keinerlei Eingang in die Kritik an einem vorgeblich konstanten „natürlichen atmosphärischen Treibhauseffekt“ gefunden hat. Auch die Protagonisten der Wintergate-Hypothese haben sich an den Treibhauseffekt nicht herangetraut. In dem Artikel „Die Winterpförtner-Hypothese VII: Eine Zusammenfassung und ein paar Fragen“ äußern sich Vinós & May schließlich auch zu Fragen aus der Kommentarfunktion von WUWT. Gleich Frage 2 bezieht sich auf den sogenannten „natürlichen atmosphärischen Treibhauseffekt“, Zitat aus der deutschen Übersetzung auf EIKE:

F: Ist der Treibhauseffekt für die Winter-Gatekeeper-Hypothese erforderlich?

A: Ja. In einem Gedankenexperiment wurde dem Leser vorgeschlagen, sich vorzustellen, dass die Polarregionen ein anderer Planet (B) sind, der mit einem Planeten A verbunden ist, der aus den Tropen und den mittleren Breiten besteht. Die Verbindung ermöglicht die Übertragung von Wärme. Der Treibhauseffekt auf Planet B ist schwächer, da seine Atmosphäre einen geringen Wasserdampfgehalt aufweist. Während 6 Monaten im Jahr liegt Planet B im Dunkeln. Lässt man mehr Energie zu diesem Planeten durch, wird sie effizienter in den Weltraum abgestrahlt und die Durchschnittstemperatur des Binärsystems sinkt, obwohl sich Planet B erwärmt. Das Gegenteil ist der Fall, wenn weniger Energie durchgelassen wird.“

Diese Antwort hinkt gewaltig auf allen Beinen, denn nach herkömmlicher Ansicht ist der THE konstant. Jedenfalls ist dem Autor keine Grafik bekannt, die eine variable THE-Verteilung auf unserer Erde darstellt, und auch Vinós & May liefern keinen entsprechenden Nachweis. Der meridionale Energietransport ist vielmehr, ganz ohne THE, zwingend über die herrschenden Temperaturunterschiede zwischen Tropen und Polarregionen verknüpft. Stellen Sie einfach einmal einen großen Topf mit Wasser auf eine zu kleine Kochplatte. Das Erhitzen des Wassers findet nur im Zentrum des Topfes statt, wobei an seiner Außenwand auch noch die größte Abkühlung stattfindet. Es entsteht dadurch eine radiale Zirkulation des Wassers. Die Aussage der Autoren ist daher wohl eher dem Umstand geschuldet, dass jeder, der den vorgeblichen THE bezweifelt, von 97 Prozent der Menschen als Spinner abgetan wird. Und daher waren die Autoren wohl auch gezwungen, den klimapolitischen THE-Geßlerhut zu grüßen, um ihr Modell nicht zu beschädigen.

Schleierhaft bleibt allerdings, warum die Autoren in den F/A eine Abhängigkeit ihrer Wintergate-Hypothese von den Schwankungen der solaren Einstrahlung ausdrücklich bestreiten, Zitat aus Antwort 3:

F: Warum gibt es keine Korrelation zwischen Oberflächentemperatur und Sonnenaktivität, wenn die Hypothese wahr ist?

A: Weil es keine Korrelation geben sollte. Auf der multidekadischen Skala reagiert der meridionale Transport hauptsächlich auf die multidekadische Ozean-Atmosphären-Oszillation. Auf der zwischenjährlichen Skala haben die Quasi-Biennial-Oszillation und die El Niño/Southern Oscillation einen starken Einfluss. Die Sonne ist auf diesen Zeitskalen nicht dominant. Die Rolle der Sonne nimmt mit zunehmender Länge der Zeitskala aufgrund ihrer längerfristigen säkularen Zyklen und ihrer längerfristigen kumulativen Wirkung zu.“

Diese Aussage wird dadurch auch nicht besser, dass es im Text der Zusammenfassung in Kapitel 7.3 heißt, es gäbe eine negative Korrelation der arktischen Temperatur mit der Sonnenaktivität, Zitat:

Die plausibelste Erklärung für die negative Korrelation der arktischen Temperatur mit der Sonnenaktivität ist, dass Veränderungen der Sonne den meridionalen Transport regulieren. Eine Zunahme der Sonnenaktivität verringert den Transport und kühlt die Arktis ab, und eine Abnahme der Sonnenaktivität erhöht den Transport und erwärmt die Arktis. Der Effekt auf die Temperatur in den mittleren Breiten ist das Gegenteil.“

Es ist schwer, diese beiden divergierenden Aussagen sinnstiftend zusammenzubringen. Insbesondere auch deshalb, weil es in der Erklärung zur oben eingefügten Abbildung 3.5 von Vinós & May heißt, Zitat mit Hervorhebungen, „Es ist bekannt, dass der meridionale Energie- und Impulstransport durch ENSO, die quasi-bienniale Oszillation und die Sonnenaktivität moduliert wird.“ Ein solcher meridionaler Energietransport durch sonnenerwärmte Materie ist zwangsläufig mit einer Erwärmung in den Tropen und einem Wärmetransport zu den Polen verbunden. Denn, wie wir gesehen haben, hat die Sonneneinstrahlung auf den Polkalotten keine ausreichende „Tiefenwirkung“.

Usoskin et al. hatten jedenfalls in ihrer Veröffentlichung “SOLAR ACTIVITY OVER THE LAST 1150 YEARS: DOES IT CORRELATE WITH CLIMATE?” nachgewiesen, dass die Temperatur in der Nordhemisphäre der Sonnenaktivität mit einer Zeitdifferenz von etwa 10 Jahren folgt:

Abbildung: Usoskin et al. (2005) Figure 3. Correlation coefficient between northern hemisphere temperatures (MJ03) and the reconstructed sunspot number as a function of time lag between the two data series. Positive lags correspond to sunspot numbers leading the temperature.

Übersetzung: Korrelationskoeffizient zwischen den Temperaturen auf der Nordhalbkugel (MJ03) und der rekonstruierten Sonnenfleckenzahl als Funktion der Zeitverzögerung zwischen den beiden Datenreihen. Positive Lags entsprechen den Sonnenfleckenzahlen, die die Temperatur anführen.

Trotzdem wird in der medialen Öffentlichkeit inzwischen der sogenannte THE über seinen monokausal durch CO2 definierten „menschengemachten“ Anteil für jede noch so selbstverständliche Wetterkapriole verantwortlich gemacht, die sich zufällig irgendwo auf dieser Welt ereignen mag. Gleiches gilt auch für klimahysterische Nachrichtenmeldungen, die mit schöner Regelmäßigkeit über jährlich wiederkehrende natürliche Klimaereignisse bis hin zur sommerlichen Gletscherschmelze oder zum regenreichen jahreszeitlichen Monsun berichten. Zu solchen, in klimareligiösem Eifer herbeigeredeten Monokausalitäten, fällt mir abschließend nur noch ein uralter Witz ein:

WARNHINWEIS: Dieser Witz könnte Ihr religiöses Empfinden verletzen!

Klein Fritzchen ist mit seinen Eltern von der Großstadt aufs Land gezogen und dort in einer konfessionellen Grundschule eingeschult worden. Eines Tages fragt die Lehrerin: „Ich habe heute Morgen ein totes Tier auf der Straße gesehen, von dem nur noch ein buschiger roter Schwanz zu erkennen war. Fritz, was war das wohl?“ Klein Fritzchen antwortet: „Ich persönlich tippe auf ein Eichhörnchen, aber wie ich den Laden hier kenne, wird es wohl wieder das Jesuskind gewesen sein.“

 




Was bedeutet „unter 10 μSv/a“?

von Dr. Lutz Niemann

Herr Ulrich Waas hat einen exzellenten Artikel geschrieben „Die Grünen sind Genies darin, das Volk über die Atomkraft zu täuschen“, der in der Berliner Zeitung am 23.8.2022 abgedruckt worden ist (https://www.berliner-zeitung.de/politik-gesellschaft/kernkraftwerke-robert-habeck-die-gruenen-sind-genies-darin-das-volk-ueber-die-atomkraft-zu-taeuschen-li.258958). Darin wurde auf den bei Rückbau von Kernkraftwerken und bei Endlagerung geltenden Strahlen-Grenzwert 10 μSv/a (= Mikrosievert pro Jahr) eingegangen. Die Unsinnigkeit des Grenzwertes von 10 µSv/a wurde erläutert, hier sollen noch weitere Argumente zugefügt werden.

  • Die Grenze von 10 µSv/a gilt im Bereich Rückbau und Endlagerung, es ist die über ein ganzes Jahr aufsummierte zusätzliche Bestrahlungsdosis. Das bedeutet bei Gleichverteilung über ein Jahr eine zusätzliche Ortsdosisleistung von 0,0011 µSv/h = 1 nSv/h, und das ist ganz grob etwa ein Hundertstel der Schwankungsbreite der überall auf der Erde vorhandenen Radioaktivität. Bestrahlungsdosen in diesem Bereich sind belanglos und auch nicht meßbar, sie werden in Rechenmodellen berechnet.
    Bei den Jahrestagungen Kerntechnik wurde wiederholt über den Unsinn der Bestimmung „unter 10 μSv/a“ diskutiert.
  • Es ist richtig, durch einen Transatlantikflug von FRA – JFK – FRA erhält jeder Reisende in den 15 Stunden des Fluges etwa 100 µSv, also das Zehnfache von 10 µSv (das können je nach Aktivität der Sonne auch 40% mehr oder 20% weniger sein). Die Ortsdosisleistung – also der Strahlenpegel – beträgt in Reiseflughöhe über Deutschland ca. 6 µSv/h, er ist etwa 100-fach höher als am Boden. Ein 100-fach erhöhter Strahlenpegel würde in Kernkraftwerken sämtliche Alarmglocken ertönen lassen, im Flugzeug ist er akzeptiert, man weiß aus Erfahrung daß er harmlos ist.
  • Das fliegende Personal der Lufthansa sammelt in einem Jahr eine zusätzliche Strahlendosis bis zu 10 000 µSv = 10 mSv an, also das 1000-fache von der Grenze 10 µSv/a (sehr abhängig von der Flugroute). Das geschieht ohne irgendwelche negativen gesundheitlichen Folgen.
    Es ist immer auch die Zeit, in der eine Dosis einwirkt, zu beachten. Zur Veranschaulichung erinnere ich an die Wirkung von einer Dosis Ethanol (Alkohol): Die Flasche Schnaps ist tödlich beim Konsum in der Zeit von wenigen Minuten, jedoch harmlos bei Verteilung über ein Jahr. Dieses Beispiel zeigt die Unsinnigkeit der im Strahlenschutz üblichen Aufsummierung kleinster Dosen über ein ganzes Jahr an.
  • Für medizinische Röntgenuntersuchungen sind die Bestrahlungsdosen folgender Tabelle zu entnehmen [1]:

    Es werden in der Medizin Bestrahlungsdosen vom 1000-fachen der Grenze „10 μSv/a“ angewendet. Das geschieht innerhalb von Zeiten weniger Minuten, täglich zum Wohle von Millionen Patienten. Das ist ein weiteres Beispiel für die Unsinnigkeit der gesetzlichen Grenze von „unter 10 μSv/a“.
  • Erst bei Bestrahlungen zur Krebsbekämpfung kommt man in den Bereich, wo schwere Nebenwirkungen durch die Strahlung auftreten. Dort wird über einen Zeitraum von 6 Wochen an den 5 Tagen der Woche in der Regel täglich mit 2 Sv bestrahlt, in der Summe mit 60 Sv [2]. Es heißt dort: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren, die Erholungszeiten bei malignen Zellen sind für vergleichbare Reparaturvorgänge häufig länger.“ Bei der Krebsbekämpfung geht es um das Weiterleben der Patienten, dort geht man bis an die Grenze der für gesundes Gewebe gerade noch erträglichen Bestrahlungsdosis.
    Der Abstand der Bestrahlungsdosen zur oben genannten Grenze „unter 10 μSv/a“ liegt ganz grob im Bereich Millionen, der Abstand bei der Dosisleistung im Bereich Milliarden. – Wo kann man bei diesen Abständen noch die Notwendigkeit zur Festlegung einer Grenze erkennen?
    Dem geneigten Leser sei empfohlen, auch bei Ethanolkonsum sich die Bedeutung des Abstandes von einem Millionstel der letalen Dosis klar zu machen.

Mit der Grenze 10 µSv/a wird eine Gefahr suggeriert, diese Gefahr gibt es jedoch nicht. Durch Schutzmaßnahmen vor einer nicht existierenden Gefahr werden Arbeitsplätze geschaffen, eine riesige Industrie lebt davon. So wird der unwissende Bürger in die Irre geführt, er muß unnütze Dinge bezahlen.

Inzwischen hat die Angstmache vor Strahlung Deutschland dazu gebracht, freiwillig aus seiner lebensnotwendigen Stromversorgung auszusteigen.

Endlagerung oder das „1-Millionen-Jahre“-Missverständnis

Das von der Politik erfundene Totschlagargument „1-Million-Jahre“ suggeriert ein unlösbares Problem mit der Endlagerung. Auch dazu einige zusätzliche Gedanken:

  • In der oberen 1 Meter dicken Erdschicht eines normalen Gartens von 500 m² Fläche sind 3 bis 5 kg Uran enthalten. Wenn man dieses Uran aus dem Garten zum Einsatz im Kernkraftwerk gewinnen könnte und im Schnellen Reaktor einsetzen würde, dann würde es ausreichen 30 bis 50 Personen ein ganzes Leben mit Strom zu versorgen.
    Dieses Beispiel zeigt die ungeheure Energiedichte im Uran an und damit die millionenfach höhere Bedeutung für die Stromversorgung im Vergleich mit den fossilen Brennstoffen Kohle, Gas, Öl.
  • Es gelangt Uran mit Nahrung und Getränken auch in unseren Körper, im Laufe des Lebens sammeln sich etwa 50 µg Uran an [3]. – Aber was bedeuten nun 50 µg Uran, ist das viel oder ist das wenig? Sind wir dadurch mit Uran vergiftet? 50 µg Uran sind eine verschwindend geringe Masse, aber es sind 100 000 000 000 000 000 Uranatome und das ist eine gigantisch große Zahl.
    Durch Zahlenspielereien dieser Art lässt sich beliebig Angst erzeugen. In Deutschland wurde die Methode zur Perfektion gebracht.
  • Aus dem ASSE-Bergwerk wurde durch die Förderung von Kalisalz (Kalium-40 ist radioaktiv) etwa genau so viel Radioaktivität heraus geholt, wie später durch Einlagerung von schwach aktiven Stoffen wieder hinein gebracht wurde (nach 100 Jahren sind die 250 g Pu-241 verschwunden, die heute noch den überwiegenden Teil der Aktivität darstellen).
    Mit dem Kalisalz wird auf unseren Äckern genau so viel Radioaktivität verteilt, wie es in der Tiefe des ASSE-Bergwerkes als Gefahr dargestellt wird.
  • Aus den schönen Rechenbeispielen von Herrn Ulrich Waas zum Urangehalt der Erdkruste folgt für das Deckgebirge oberhalb der ASSE: Die schwach radioaktiven Abfälle in der Tiefe werden durch ein Deckgebirge mit dem100-fachen an Radioaktivität geschützt. Das gilt sowohl in Bezug auf die Aktivität wie auch in Bezug auf die Masse [4].
    Warum sollen die Abfälle wieder an die Oberfläche geholt werden, wo sie doch durch die 100-fach höhere „Gefahr“ im Deckgebirge geschützt werden?
  • Vor großen Gefahren sollen Menschen geschützt werden, und das ist immer eine hohe Dosis in kurzer Zeit. Bei den Abfällen aus der Kernspaltung gibt es diese Gefahr kaum. Die Gefahr wurde durch unsinnige Grenzwerte suggeriert und später von der Politik für politische Ziele ausgenutzt. Die Spaltprodukte aus der vollständigen Stromversorgung eines Menschen durch Kernkraft aufsummiert für das gesamte Leben machen gerade einmal 100 Gramm aus. Das ist die Masse einer Tafel Schokolade, vor der Menschen problemlos geschützt werden können [5].

Die Kernspaltungsenergie ist eine der großartigsten Erfindungen der Menschheit. Überall wird sie benutzt, überall auf der Erde wird eingestiegen, nur in Deutschland wird ausgestiegen. Die Ursache für das Verhalten Deutschlands ist politischer Art, verstärkt durch ein wahres Trommelfeuer der Medien durch jahrzehntelange Falschinformation der Bürger zu nicht existierenden „Gefahren“ von Radioaktivität und Strahlung. Die Deutschen sollten sich besinnen und an klugen Nachbarvölkern ein Beispiel nehmen, z. B. an Rußland mit der Anwendung des Schnellen Reaktors, wie er in Deutschland in Kalkar fertig gestellt worden ist, aber nie in Betrieb ging.

Hinweise

[1] Strahlenschutzlexikon 2012

[2] Deutsches Ärzteblatt, Jg.110, Heft 17, 26.4.2013, Seite 720 ff

[3] P. Roth, E. Werner, H.G. Paretzke, “Untersuchungen zur Uranausscheidung im Urin”, GSF-Bericht 3/01

[4] StrahlenschutzPRAXIS 1/2010 S. 98.

[5] https://eike-klima-energie.eu/2019/10/14/kernenergie-der-weg-in-die-zukunft/