Der negative Treibhauseffekt Teil 2

Michael Schnell, Hermann Harde

Einleitung

Dass IR-aktive Gase (TH-Gase) Wärmestrahlung absorbieren können, ist unbestreitbar, denn dies wird durch unzählige Infrarotspektren nachgewiesen. Man ist sich auch weitgehend einig, dass auch für TH-Gase in großer Höhe das Kirchhoff‘sche Strahlungsgesetz gilt, wonach die spektrale Absorption gleich der spektralen Emission ist (hier, hier). Angesichts der hohen Stoßraten der Gasmoleküle bei Normaldruck wird jedoch von einigen Autoren angenommen, dass TH-Gase in der unteren Atmosphäre keine Emitter sind und auch keine Gegen- oder Rückstrahlung erzeugen (hier, hier). Demnach würden angeregte TH-Gase bei einer Kollision durch strahlungslose Deaktivierung ausschließlich Wärme erzeugen (Thermalisierung). Um die These der Thermalisierung zu überprüfen und gegebenenfalls im Sinne von K. Popper zu widerlegen, wurde eine spezielle Apparatur entwickelt, die das Prinzip des negativen Treibhauseffektes simuliert (siehe Teil 1).

In einem früheren Versuchsaufbau wurden eine geheizte und eine gekühlte Platte gemeinsam in einem thermisch isolierten Container untergebracht. Experimente mit dieser Apparatur konnten nachweisen, dass TH-Gase die Rückstrahlung vergrößern, so dass bei konstanter Heizung die Temperatur der warmen Platte (stellvertretend für die Erde) anstieg [1]. Ein Einfluss der TH-Gase auf die Lufttemperaturen konnte nicht ermittelt werden, da es hier kaum Veränderungen gab. Auch ließen sich die Auswirkungen von Wasserdampf nicht untersuchen, da dieses Gas entfernt werden musste, um eine Kondensation an der kalten Platte zu verhindern.

Diese Nachteile werden durch eine Zweikammer-Anordnung behoben. Im Mittelpunkt steht auch nicht mehr die Temperatur der Erde, sondern die Temperatur der Atmosphäre. In den Experimenten wird die Erdatmosphäre durch eine Schicht warmer Luft dargestellt, die sich über einer gekühlten Platte befindet. Luft und Platte sind durch eine PE-Folie voneinander getrennt, wodurch mechanische Wärmeströme unterdrückt werden. Außerdem können nun auch die Auswirkungen von Wasserdampf untersucht werden, da die PE-Folie direkten Kontakt mit der kalten Platte verhindert. Als Strahlungsempfänger ermöglicht die kalte Platte einen Energiestrom, der als Simulation des Wärmetransportes sowohl von der Atmosphäre in Richtung kälterer Erdoberfläche als auch in Richtung Weltall interpretiert werden kann.

Die Versuche zeigen, dass bereits geringe Mengen eines TH-Gases ausreichen, um die Wärmestrahlung der Luft deutlich zu erhöhen, während gleichzeitig ihre Temperatur sinkt. Damit ist ein negativer Treibhauseffekt nachgewiesen, der das Gegenteil bewirkt, was üblicherweise erwartet wird. Es konnte im Labormaßstab und bei dem Luftdruck der unteren Atmosphäre gezeigt werden, dass TH-Gase die kinetische Energie ihrer Umgebung aufnehmen und durch nachfolgende Emission in Wärmestrahlung umwandeln können.

Dieser Nachweis ist alles andere als einfach, denn eine Messung an Gasen benötigt einen Zylinder als Container. Und hier beginnen die Probleme, denn wie alle festen Körper emittiert der Zylinder Wärmestrahlung. Diese sogenannte Hintergrundstrahlung des Zylinders überlagert die Emissionen der TH-Gase. Dadurch wird nur die Spitze der Gasstrahlung sichtbar, ähnlich wie bei einem Eisberg (siehe Teil 1). Das ist auch der Grund, warum ausgefeilte, optimale Versuchsbedingungen erforderlich sind, um diesen Effekt nachzuweisen und warum so viele Versuche an diesen strengen Bedingungen gescheitert sind. Eine horizontal aufgestellte Styroporbox scheint auf den ersten Blick eine bequeme Lösung zu sein, da sie kommerziell verfügbar ist und sich leicht verarbeiten lässt. Wie in [2] beschrieben, ist ein solcher Versuchsaufbau für den Nachweis der Gasstrahlung aus verschiedenen Gründen, aber vor allem wegen ihrer intensiven Hintergrundstrahlung, nicht geeignet.

1. Der Versuchsaufbau

Um zu überprüfen wie sich Treibhausgase auf die IR-Emission und Temperatur eines Luftpaketes auswirken, braucht man zunächst nur einen beheizten Zylinder und eine geschwärzte und gekühlte Platte (PC). Konvektion ist ein sehr effektives Mittel des Wärmetransports. Um dies zu verhindern, müssen der warme Zylinder und die kalte PC-Platte senkrecht übereinandergestellt werden. Dabei wird der warme Zylinder oben und die kalte PC-Platte unten platziert, sodass eine stabile Schichtung entsteht. (siehe Abb. 1).
Die eigentliche Herausforderung besteht in der Reduzierung der Hintergrundstrahlung des Zylinders. Zu diesem Zweck wurde poliertes Aluminium mit einem geringen Emissionsgrad von
ε ~ 5 % als Zylinderoberfläche verwendet (Abb. 1c). Das mag nach wenig klingen, doch die Innenfläche des Zylinders ist rund zehnmal so groß wie die Austrittsfläche zur PC-Platte und erzeugt eine Hintergrundstrahlung von 78 W/m2, während die Strahlungsdichte von CO₂ rund zehnmal geringer ausfällt.

Die abgegebene IR-Strahlung, allgemein als Wärmestrom Q zur Platte PC bezeichnet, wird durch zwei unabhängige Detektoren nachgewiesen: eine kleine, geschwärzte Scheibe auf einer Isolierschicht (Detektor TD) sowie zehn Mini-Peltier-Elemente (Detektor VP), die sich direkt auf der PC-Platte befinden (Abb. 1d).
Wie in Teil 1 beschrieben werden beim luftgefüllten Zylinder rund 94 % der Wärme durch Strahlungstransfer I0 und 6 % durch mechanische Wärmeleitung WL abgeführt. Zur Vereinfachung wird dieser Wärmestrom Q im Folgenden als Hintergrundstrahlung I bezeichnet, obwohl er einen geringen Anteil Wärmeleitung enthält.

Demgegenüber besteht der zusätzliche Wärmestrom bei Zugabe von TH-Gasen ausschließlich aus Infrarotstrahlung des TH-Gases. Diese Aussage lässt sich aus den Änderungen der Temperaturdifferenzen ΔT1 – ΔTC ableiten, die bei Zugabe der TH-Gase negativ werden. Für eine Zunahme der mechanischen Wärmeleitung wäre ein positiver Anstieg dieser Differenz zwingend erforderlich (Gleichung 1, Teil 1), was jedoch nicht beobachtet wird (siehe Tabelle 2b ff.). Die Differenzmessung des Wärmestroms vor und nach Zugabe des Treibhausgases misst somit die reine Gasstrahlung IGas. Diese wird allerdings durch Überlagerungen und Übertragungsverluste geschwächt, bevor sie die PC-Platte erreicht (Kap. 3).

Die Temperaturen T1 bis T5 werden mithilfe von Temperatur-Datenloggern (Elitech) ermittelt. Da sich deren Messspitze nur 5 cm von der Zylinderwand entfernt befindet, wird eine Mischung aus Luft- und Wandtemperatur gemessen, die als Zylindertemperatur bezeichnet wird. Bei der Untersuchung geht es um diese Zylindertemperaturen und ihre Änderungen, deshalb wird der Zylinder – im Gegensatz zur Vorgänger-Apparatur [1] – nicht elektrisch beheizt, sondern mit thermostatisiertem Wasser von 51 ± 0,1 °C erwärmt. Hierzu wird das warme Wasser TW kontinuierlich durch den PVC-Schlauch der Mantelheizung geleitet. Ohne ausgehenden Wärmestrom Q müssten Zylinder- und Heizwassertemperaturen annähernd gleich sein. Aufgrund des Wärmestroms ergeben sich jedoch Differenzen zwischen den Zylindertemperaturen und der Heizwassertemperatur TW (siehe Teil 1). Um diesen Effekt noch zu verstärken, wurde zwischen dem PVC-Schlauch und der Zylinderwand eine 2 mm dünne Styroporisolierung angebracht. Diese schwächt den Wärmefluss vom Wasser zum Zylinder ab. Mithilfe dieser Maßnahme lässt sich die Gasstrahlung IGas auch an der Temperaturabnahme nach Zusatz von TH-Gasen gut nachweisen (siehe Abb. 4 ff.).

Die PC-Platte besteht aus geschwärztem Aluminiumblech, das auf ein spiralförmig gebogenes Kupferrohr in einem Betonbett geklebt ist. Durch dieses Rohr strömt thermostatisiertes Wasser mit einer Temperatur von 10 ± 0,1 °C, wodurch die aufgenommene Wärme kontinuierlich abgeführt wird.

2. Vorbereitende Studien

Es bedarf umfangreicher Vorbereitungen, um sicher zu sein, dass die gefundenen Effekte tatsächlich durch die Gasstrahlung der IR-aktiven Gase verursacht werden und nicht durch andere Einflüsse.

Für den Nachweis der Gasstrahlung von Treibhausgasen ist ein stationärer Zustand mit konstanten Temperaturen erforderlich. Um dies zu erreichen, wird das Heizwasser viele Stunden vor Beginn des Versuchs durch den Zylindermantel geleitet und so lange gewartet, bis sich ein stationärer Zustand eingestellt hat. Zur Auswertung wird ein Durchschnittswert von je einer Stunde vor und nach Zugabe des Probegases ermittelt.

Wenn ein Probegas zugeführt wird, das natürlich kälter als der Zylinder ist, sinken die Zylindertemperaturen kurzzeitig, insbesondere im T1-Bereich (siehe Abb. 4 ff.). Durch Blindversuche mit Luft als Probegas, kann gezeigt werden, dass schon nach 20 Minuten das thermische Gleichgewicht mit den ursprünglichen Temperaturen wieder erreicht ist [3].

Die Wärmeleitfähigkeit der Gase im Zylinder spielt keine Rolle wie Versuche mit den Edelgasen Argon bzw. Helium zeigen [3].

Durch Kalibrierung mit einer externen Strahlungsquelle bekannter Intensität erhält man einen streng linearen Zusammenhang für die beiden Sensoren TD und VP mit einem identischen Korrelationskoeffizienten von R^2 = 0,999 [3].

Aus den TD- bzw. VP-Werten und der Austrittsfläche A = 0,0855 m2 kann die jeweilige Strahlungsintensität berechnet werden, wobei zur Erhöhung der Genauigkeit der Durchschnitt beider Werte verwendet wird.

3. Der Einfluss von Wasserdampf auf die Hintergrundstrahlung

Um den Einfluss von Wasserdampf nachzuweisen, werden bei drei verschiedenen WD-Konzentrationen die Zylindertemperaturen T1 bis T5 sowie die ausgehende Emission I0 gemessen. Die Heiz- und Kühl-Temperaturen (TW und TC) sind dieselben, die auch bei den späteren Messungen von Treibhausgasen verwendet werden.

Die unterschiedlichen WD-Konzentrationen haben, abgesehen von der T1-Messstelle, nur einen minimalen oder keinen Einfluss auf die Zylindertemperaturen. Das liegt an der im Vergleich zu den anderen atmosphärischen TH-Gasen (die bei Konzentrationen bis zu 8 Vol.-% untersucht wurden) sehr geringen, maximalen WD-Konzentration von nur 1,9 Vol.-% (siehe Teil 1).

Deutliche Änderungen zeigen sich jedoch bei der Hintergrundstrahlung I0, die mit steigender Luftfeuchte von 79,4 auf 85,1 W/m2 ansteigt (Tab. 1).

Die gemessenen Werte für die Hintergrundstrahlung I0 können durch Strahlungstransfer-Rechnungen sehr gut reproduziert werden, wenn Hintergrundstrahlung der Zylinderwände und Übertragungsverluste berücksichtigt werden (Abb. 2).

Nach diesen Rechnungen erzeugen 0,15 Vol.-% Wasserdampf im Inneren des Zylinders eine zusätzliche Strahlungsintensität von 10,5 W/m2. Beim Erreichen der PC-Platte reduziert sich dieser Wert jedoch auf 2,0 W/m2. Im Falle von 1,9 % Wasserdampf bleiben von 41,3 W/m2 nur noch 7,7 W/m2 übrig.

Diese Verluste entstehen durch die Überlagerung der WD-Strahlung durch die Infrarotstrahlung der Zylinderwände sowie durch Übertragungsverluste zur PC-Platte. Die starken Abschwächungen offenbaren die Schwierigkeiten, die Gasstrahlung von Treibhausgasen experimentell nachzuweisen. In Abb. 3 wird gezeigt, dass die WD-Banden (blaue Linien) die gleichen Wellenzahlen beanspruchen, die auch von der Hintergrundstrahlung der Zylinderwände (grau gestrichelte Linie) einschließlich der Absorptionslinien der PE-Folie bei 750 und 1500 cm-1 besetzt werden. Durch diese Überlagerungen sind nur die WD-Intensitäten wirksam, die über die graue Linie hinausgehen.
Die gegenseitige Überlagerung der verschiedenen Treibhausgase untereinander, insbesondere durch Wasserdampf erfolgt nach dem gleichen allgemeinen Prinzip:

Die gemeinsame Strahlung mehrerer Treibhausgase ist stets kleiner als die Summe der einzelnen Anteile.

Innerhalb der Atmosphäre gibt es noch weitere Überlagerungen, die durch Aerosole und Wolken verursacht werden. Als Planck-Strahler mit einem kontinuierlichen Strahlungsspektrum können diese festen und flüssigen Partikeln die Emissionen sämtlicher Treibhausgase beeinflussen. Daher ist der CO₂-Treibhauseffekt bei hoher Luftfeuchte und bedecktem Himmel deutlich geringer als bei klarem Himmel und geringer Feuchte.

Die Überlagerung der WD-Strahlungen mit der Strahlung der anderen atmosphärischen Treibhausgase führt zu einer deutlich reduzierten Wasserdampf-Rückkopplung. Das IPCC geht von einer positiven Rückkopplung um einen Faktor 2 – 3 aus, um die Auswirkungen von CO₂ aufzublähen und bildet so das Rückgrat des Klimaalarmismus (hier). Ohne diese Hypothese würde sich die Erde bei einer Verdopplung der CO₂-Konzentration lediglich um harmlose 0,6 bis 1 °C erwärmen (Harde 2013, 2017 [4, 7]). Modell-Rechnungen mit einer „Wasserdampf-Rückkopplung“ unterstellen sogenannte Troposphären-Hotspots, eine Zunahme von Wasserdampf und Temperatur in der höheren Troposphäre, zwischen dem Äquator und dem 30. Breitengrad. Für diese Hypothese gibt es jedoch keine Bestätigung, denn Satellitenmessungen zeigen das genaue Gegenteil, eine Abnahme des Wasserdampfes und einen Temperaturrückgang in den mittleren und oberen Schichten der Troposphäre (hier). Der größte Teil der Erwärmung seit den 1970er Jahren fand in der Nähe der Oberfläche statt (hier).

4. Die IR-Emissionen der Treibhausgase

In diesem Abschnitt sind die Messungen und entsprechende Rechnungen zur IR-Emissionen der Treibhausgase CO₂, Methan, Lachgas und Freon 134a zusammengestellt. Alle Untersuchungen werden bei Normaldruck und bei konstanten Anfangs-Temperaturen durchgeführt. Neben dem Nachweis der IR-Strahlung wird auch die Abkühlung der Gase als Folge dieser Emissionen erfasst.

Die stärkste Abkühlung findet sich in der Position T1 und schwächt sich in Richtung Dom allmählich ab. Dieser Temperaturgradient stimmt mit dem Strahlungstransfer gemäß der Schwarzschild-Gleichung und dem Schichtenmodell überein (Schwarzschild 1906 [5], Harde 2013 [4]). Die nur 5 cm von der PE-Folie entfernte T1-Gasschicht kann ihre Infrarotstrahlung nahezu ungehindert an die PC-Platte abgeben und kühlt sich dabei am stärksten ab. Alle weiter entfernten Schichten müssen die Energie durch Absorption und Re-Emission transportieren, wodurch eine Dämpfung mit zunehmendem Abstand zur PE-Folie entsteht. Dieser Effekt ist besonders gut beim Lachgas und Freon zu sehen, da diese Gase alle 5-Messstellen T1 – T5 beeinflussen (Kap. 4.1 u. 4.4).

Die Intensität der IR-Strahlung, die bei der PC-Platte ankommt, wird durch die Temperatur- bzw. Spannungs-Anstiege der TD- bzw. VP-Sensoren ermittelt und in Leistungen W/m2 umgerechnet [3].

Dabei ist I0 die Hintergrundstrahlung des Versuchsaufbaus vor und IG die gesamte Strahlungsintensität nach Zugabe eines TH-Gases. Durch die Differenzmessung mit und ohne TH-Gase lässt sich so der Strahlungsanteil des Gases ΔIGas ermitteln.

Zur Kontrolle werden auch die Veränderungen der Heiz- und Kühl-Temperaturen als ΔTW bzw. ΔTC angegeben. Diese Werte sollten annähend Null sein, um zu zeigen, dass die Emissionen und Zylinder-Temperaturen nicht durch äußere Faktoren verursacht werden. Für die TH-Gase CO₂ und Methan trifft das vollumfänglich zu. Bei den sehr wirksamen TH-Gasen Lachgas und insbesondere Freon 134a ist dagegen nur die Heizung ΔTW annähernd Null. Die Kühltemperatur ΔTC weist jedoch einen deutlichen Anstieg von bis zu 0,7 °C auf, der durch die starke Zunahme der Gasstrahlung verursacht wird.

4.1. Die Freon 134a-Strahlung

Tetrafluorethan (CFH2CF3), das auch bekannt ist als HFC-134a oder als Freon 134a, wurde über viele Jahre als chlorfreies (es ist kein FCKW), effizientes Kühlmittel eingesetzt. Es soll entsprechend einer EU-Verordnung bis zum Jahr 2030 schrittweise reduziert werden, da von einem hohen Treibhauspotenzial ausgegangen wird.

Aufgrund seiner starken Wirkung als Treibhausgas eignet sich Freon 134a hervorragend zur Demonstration der Gasstrahlung. So führt bereits eine Konzentration von nur 1 Vol.-% zu einer Steigerung der IR-Emission um beeindruckende 36 W/m2 und zu einem Temperaturrückgang der Zylinderluft von bis zu 2,8 °C (siehe Abb. 4 und Tab. 2).

Angesichts dieser eindeutigen Datenlage ist die These, dass Treibhausgase bei Normaldruck nur Absorber sind und keine Infrarotstrahlung emittieren bzw. keine Gegenstrahlung erzeugen, klar widerlegt.

Trotz seines starken Effektes ist die Wirksamkeit von Freon 134a auch von der WD-Konzentration abhängig. Bei einer WD-Konzentration von 1,1 Vol.-% beträgt die Strahlungsintensität nur noch etwa 88 % des Wertes im Vergleich zu getrockneter Luft (Tab. 2b).

Da Freon 134a nicht als „Line-by-Line“-Datensatz in der HITRAN-Datenbank gelistet ist, ist eine Überprüfung durch Strahlungstransfer-Rechnungen an dieser Stelle nicht möglich.

4.2. Die CO₂-Strahlung

Die CO₂-Wirksamkeit ist viel schwächer als die von Freon. Deshalb werden hier, wie auch bei den folgenden TH-Gasen, höhere Konzentrationen von 2, 4 und 8 Vol.-% eingesetzt. Bei diesen Konzentrationen führt die Zugabe von CO₂ zu einer deutlichen Abkühlung der T1- und T2-Temperaturen bei gleichzeitigem Anstieg der IR-Strahlungsintensität ΔICO₂ (Abb. 5).

Bitte beachten: Aufgrund der deutlich geringeren Wirkung im Vergleich zu Freon 134a werden die Diagramme für CO₂, Methan und Lachgas jeweils bei 8 Vol.-% dargestellt.

Im Falle von CO₂ wird der Einfluss von Wasserdampf bei drei Konzentrationen (0,15 %, 1,1 % und 1,9 Vol.-%) überprüft (Tab. 3a und 3b). Mit zunehmender WD-Konzentration zeigt sich, dass die Hintergrundstrahlung weiter zunimmt und dies zu einer Abschwächung des CO₂-Strahlungsanteils führt. Diese Abschwächung ist besonders bei niedrigeren Konzentrationen von WD und CO₂ erkennbar, wie die unterschiedlichen Steigungen nach Zugabe von CO₂ zeigen. So ergibt eine H2O-Konzentration von 0,15 % einen Anstieg um 7,7 W/m2, für 1,9 % WD dagegen nur 5,7 W/m2 (siehe Tabelle 3b, letzte Spalte). Dies sind nur 74 % der ursprünglichen Intensität. Die Abschwächung ist auf eine Anhebung des Hintergrunds und damit eine erhöhte Sättigung der CO₂ Flanken zurückzuführen.

Zur Überprüfung werden die ermittelten Daten zur Gesamtintensität IG durch Strahlungstransfer-Rechnungen für CO₂ und H₂O gegenübergestellt (Abb. 6, Gem. = Gemessen, Ber. = Berechnet). Details zu diesen Rechnungen, die auch für Methan und Lachgas vorliegen, finden sich in [3].

Über die langen Ausbreitungswege in der Atmosphäre und die 30 – 40-fach höhere WD-Konzentration im Vergleich zum CO₂ führt die schwache Überlappung der Spektren um 670 cm-1 (Teil 1, Abb. 2) dennoch zu einer deutlichen Begrenzung der CO₂-Klimasensitivität und auch einer reduzierten Wasserdampf-Rückkopplung (Harde 2014 [6], Harde 2017 [7]).

Auffällig ist der unterschiedliche Anstieg der CO₂-Strahlungsintensität bei Konzentrationen unter bzw. über 2 %, der von einem annähernd linearen zu einem logarithmischen Verlauf übergeht und die deutliche Sättigung der Absorptions- wie Emissionsprozesse auf der Hauptbande um 670 cm-1 wider­spiegelt. Für Konzentrationen über 2 % wird die weitere Intensitätszunahme vornehmlich durch die ungesättigten Flanken und schwächeren Banden bestimmt.
Dieses Phänomen eines „Knicks“ im Anstieg der Strahlungsintensität ist bei allen Treibhausgasen zu beobachten. Dieser Wechsel in der Sensitivität ist der Grund dafür, dass das sogenannte „Treibhauspotenzial“, der Vergleich eines Treibhausgases sehr kleiner Konzentration mit CO₂, ein Apfel-Birnen-Vergleich ist (siehe Methan).

4.3. Die Methan-Strahlung

Methan gilt als besonders gefährliches Treibhausgas, da es je nach Zeitachse ein 25- bis 84-mal höheres Treibhauspotential haben soll als CO₂. Diese Einstufung ergibt sich paradoxerweise aus seiner geringen atmosphärischen Konzentration von ca. 2 ppm. In diesem Bereich ist die optische Dichte im Vergleich zu CO₂ noch sehr gering, sodass ein lineares Steigerungspotenzial vorliegt. CO₂ hingegen befindet sich mit seinen 420 ppm bereits im logarithmischen Bereich (siehe Kap. 4.2.). Die völlig unterschiedlichen spektralen Überlagerungen mit Wasserdampf sind ein weiterer Grund für den Vorwurf des „Apfel-Birnen-Vergleichs“ (siehe Teil 1, Abb. 2).

Treibhauspotential wird fälschlicherweise oft mit Wirksamkeit verwechselt. Tatsächlich ist Methan, auf der Basis gleicher Konzentrationen, ein schwächeres Treibhausgas als CO₂ (Tab. 4b vs. Tab 3b). Die theoretischen Berechnungen (Teil 1, Kap. 2) haben bereits gezeigt, dass die IR-Strahlung von Methan im Vergleich zu CO₂ geringer ist. Dies bestätigt sich nun auch in den Experimenten.
Methan wird in der Atmosphäre unter dem Einfluss von Ozon und UV-Licht zu CO₂ oxidiert und hat deshalb eine relativ kurze Verweilzeit von ca. 9 -12 Jahren.

Wie schon beim CO₂ ist auch die Methan-Strahlung von der Wasserdampf-Konzentration abhängig. Die größte Methanwirkung wird bei einer H2O-Konzentration von 0,15 Vol.-% erreicht und beträgt bei 1,1 % Wasserdampf nur noch 78 % der ursprünglichen Wirkung (Tabelle 5b).

4.4. Die Lachgas-Strahlung

Distickstoffmonoxid (N2O, Lachgas) soll als drittwichtigstes langlebiges Treibhausgas erheblich zur globalen Erwärmung beitragen, was an seiner langen atmosphärischen Verweilzeit und seinem rund 300-mal höherem Treibhauspotential, bezogen auf CO₂, liegen soll. Im Strahlungs-Experiment ist die Wirkung von N2O erkennbar höher als die von CO₂, allerdings nur um den Faktor 1,5 bei gleicher Konzentration (Tab. 5b vs. Tab. 3b). Auch bei den theoretischen Rechnungen ist die IR-Strahlung von Lachgas nur unwesentlich höher als beim CO₂ (Teil 1, Kap. 2).

Mit 0,3 ppm ist die Konzentration von N2O in der Atmosphäre 1400-mal geringer als die von CO₂, was Fragen zu seiner Wirksamkeit aufwirft.

Wie schon bei CO₂ und CH4 ist auch die Lachgas-Strahlung von der Wasserdampf-Konzentration abhängig. Die größte Wirkung wird wieder bei einer H2O-Konzentration von 0,15 Vol.-% erreicht und reduziert sich auf 86 % der ursprünglichen Wirkung bei 1,1 % Wasserdampf (Tab. 5b).

5. Zusammenfassung

Die Untersuchung wurde durchgeführt, um einerseits die Emissionseigenschaften der Treibhausgase unter Bedingungen wie in der unteren Atmosphäre zu zeigen und andererseits die Existenz des negativen Treibhauseffekts im Modellmaßstab nachzuweisen.

Zu diesem Zweck wurde eine Apparatur entwickelt, die aus zwei Kammern besteht und senkrecht steht. Der obere Teil dieser Apparatur ist ein beheizbarer Gaszylinder, der untere Teil ein wärmeisolierter Zylinder mit einer gekühlten Platte, in der sich Detektoren für Wärmestrahlung befinden.

Bei Zugabe von Freon 134a, CO₂, Methan oder Lachgas zur oberen Kammer wird je nach Art und Konzentration eine Verringerung der Lufttemperaturen bei gleichzeitiger Zunahme der IR-Strahlung beobachtet. Das heißt, diese TH-Gase können durch inelastische Stöße mit anderen Luftmolekülen die kinetische Energie ihrer Umgebung aufnehmen und diese durch nachfolgende Emission in Wärmestrahlung umwandeln.

Eine Abkühlung der Luft bei gleichzeitiger Zunahme der Wärmestrahlung wird als „negativer Treibhauseffekt” bezeichnet, da es normalerweise genau umgekehrt ist. Solche Umkehrungen sind auch bei Inversionswetterlagen, bei der nächtlichen Abkühlung der bodennahen Luft oder bei den Luftströmungen zu den winterlichen Erdpolen Teil des Klimasystems der Erde.

Die These, dass ein Treibhauseffekt grundsätzlich nicht möglich sei, da Kollisionsprozesse angeblich zu einer strahlungslosen Deaktivierung führen und somit keine Rückstrahlung entstehen könne, wird durch diese Experimente widerlegt. Im Falle einer Thermalisierung müssten die Auswirkungen von TH-Gasen genau andersherum sein, denn dann müsste sich die Luft unter Abschwächung der IR-Emission erwärmen, was nicht beobachtet wurde.

Obwohl sich die Wasserdampfkonzentration aufgrund ihrer Kondensationsneigung nur begrenzt erhöhen lässt, konnte in Gegenwart von Wasserdampf eine deutliche Dämpfung des Effekts der oben genannten TH-Gase festgestellt werden.

Die oft fälschlicherweise angeführte These, die Gasstrahlung verletze den zweiten Hauptsatz der Thermodynamik, greift bei diesen Untersuchungen nicht, da hier nur der Wärmestrom von warm nach kalt betrachtet wird. Damit entfällt ein grundlegendes Argument der Skeptiker.

Eine Plausibilitätsüberprüfung mittels Strahlungstransfer-Rechnungen ergibt eine gute Übereinstimmung mit den gemessenen Daten, wenn unvermeidliche Verluste berücksichtigt werden.

Der Nachweis der Gasstrahlung ist alles andere als einfach, da die Hintergrundstrahlung der oberen Kammer die Strahlung der TH-Gase überdeckt, so dass nur ein Bruchteil ihrer Strahlung sichtbar wird. Um diese abgeschwächten Effekte nachweisen zu können, ist eine ausgefeilte Technik erforderlich. Neben verspiegelten Oberflächen ist ein senkrechter Versuchsaufbau, der Konvektion verhindert, Mindestanforderung.

Referenzen

  1. H. Harde, M. Schnell, 2021: Verification of the Greenhouse Effect in the Laboratory, Science of Climate Change, Vol. 2.1, 1-33. https://doi.org/10.53234/scc202203/10

  2. M. Schnell, H. Harde, 2025: The Negative Greenhouse Effect Part I: Experimental Studies with a Common Laboratory Set-Up, Science of Climate Change, Vol. 5.3., pp. 1-9, https://doi.org/10.53234/scc202510/02.

  3. H. Harde, M. Schnell 2025: The Negative Greenhouse Effect Part II: Studies of Infrared Gas Emission with an Advanced Experimental Set-Up, Science of Climate Change, Vol. 5.3., pp. 10-34, https://doi.org/10.53234/scc202510/03.

  4. H. Harde, 2013: Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis, International Journal of Atmospheric Sciences (Open Access), vol. 2013, http://dx.doi.org/10.1155/2013/503727

  5. K. Schwarzschild, 1906: Über das Gleichgewicht der Sonnenatmosphäre. In: Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse, 1906, Heft 1, pp. 41–53 (13. Januar 1906).

  6. H. Harde, Advanced Two-Layer Climate Model for the Assessment of Global Warming by CO₂, OPEN JOURNAL OF ATMOSPHERIC AND CLIMATE CHANGE, Volume 1, Number 3, November 2014, DOI: 10.15764/ACC.2014.03001,

  7. H. Harde, 2017: Radiation Transfer Calculations and Assessment of Global Warming by CO₂, International Journal of Atmospheric Sciences, Volume 2017, Article ID 9251034, pp. 1-30, https://doi.org/10.1155/2017/9251034




Jüngste Forschung stellt erneut Lügen bzgl. des Meeresspiegel-Anstiegs bloß

Vijay Jayaraj

Es ist alles nur zu vorhersehbar: Eine prominente Persönlichkeit oder ein Politiker aus der Jet-Set-Szene watet feierlich bis zu den Hüften im Wasser, um sich für ein sorgfältig inszeniertes Foto in Szene zu setzen, während er verkündet, dass der vom Menschen verursachte Anstieg des Meeresspiegels bald eine Inselnation verschlingen wird. Natürlich ist das Wasser tiefer als die Pseudowissenschaft des Videos, die ebenso seicht ist wie die Theatralik.

Die wissenschaftliche Wahrheit ist einfach: Der Meeresspiegel steigt, aber dieser Anstieg hat sich nicht beschleunigt. Eine neue, von Fachkollegen begutachtete Studie bestätigt, was viele andere Studien bereits gezeigt haben – dass der stetige Anstieg der Ozeane ein jahrhundertelanger Prozess ist und keine durch moderne Kohlendioxidemissionen (CO₂) ausgelöste, außer Kontrolle geratene Krise.

In den letzten 12.000 Jahren, während unserer aktuellen Warmzeit, die als Holozän bekannt ist, ist der Meeresspiegel dramatisch gestiegen und gefallen.

Beispielsweise sank der Meeresspiegel während der 600 Jahre dauernden Kleinen Eiszeit erheblich, die Mitte des 19. Jahrhunderts endete. Die natürliche Ende des 17. Jahrhunderts einsetzende Erwärmung erreichte um 1800 einen Punkt, an dem der Verlust an Gletschereis im Sommer die winterliche Neuschneemenge überstieg, die Gletscher zu schrumpfen begannen und der Meeresspiegel zu steigen begann. Bis 1850 war ein vollständiger Gletscherrückgang im Gange.

Die derzeitige Phase des allmählichen Anstiegs des Meeresspiegels begann also zwischen 1800 und 1860, viele Jahrzehnte vor dem Beginn signifikanter anthropogener CO₂-Emissionen. Die kritische Überprüfung des US-Energieministeriums aus dem Jahr 2025 zu Kohlendioxid und Klimawandel bestätigt diese historische Perspektive.

„Es gibt keine guten, ausreichenden oder überzeugenden Beweise dafür, dass sich der globale Meeresspiegelanstieg beschleunigt – es gibt nur Hypothesen und Spekulationen. Berechnungen sind keine Beweise, und solange die Ergebnisse nicht in der physischen Welt praktisch betrachtet und gemessen werden können, dürfen sie auch nicht als solche präsentiert werden“, bemerkt Kip Hansen, Forscher und ehemaliger Kapitän der US-Küstenwache.

Neue Studie bestätigt: Keine Krise

Während Aktivisten von einem „globalen Anstieg des Meeresspiegels“ sprechen, verhält sich die Meeresoberfläche nicht wie Wasser in einer Badewanne. Regionale Strömungen, Landbewegungen und die lokale Hydrologie beeinflussen den relativen Meeresspiegel. Deshalb sind lokale Gezeitenmessdaten so wichtig. Hansen warnt: „Nur tatsächlich gemessene, validierte Rohdaten sind vertrauenswürdig. … Man muss genau verstehen, was gemessen wurde und wie.“

Darüber hinaus können lokale Pegelstandsdaten nicht extrapoliert werden, um den globalen Meeresspiegel darzustellen. Das liegt daran, dass die geografische Abdeckung geeigneter Standorte für Pegel oft unzureichend ist und sich die meisten davon auf die nördliche Hemisphäre konzentrieren. Lateinamerika und Afrika sind in den globalen Datensätzen stark unterrepräsentiert. Hansen sagt: „Die globalen Pegelstandsdaten sind quantitativ problematisch, aber einzelne Datensätze können als qualitativer Beweis für das Ausbleiben einer Beschleunigung des Meeresspiegelanstiegs herangezogen werden.“

Eine neue Studie aus dem Jahr 2025 liefert die Bestätigung dafür. Die im Journal of Marine Science and Engineering veröffentlichte Studie widerlegt systematisch die These vom beschleunigten Anstieg des Meeresspiegels. Sie analysierte empirisch ermittelte Langzeitwerte aus ausreichend langen Datensätzen – mindestens 60 Jahre – und bezog langfristige Gezeitensignale von geeigneten Standorten mit ein.

Das überraschende Ergebnis: An etwa 95 % der Messstandorte ist keine statistisch signifikante Beschleunigung des Meeresspiegelanstiegs zu beobachten. Es wurde festgestellt, dass die stetige Rate des Meeresspiegelanstiegs – weltweit durchschnittlich etwa 1 bis 2 Millimeter pro Jahr – den in den letzten 150 Jahren beobachteten Verlauf zeigt.

[Hervorhebung im Original]

Die Studie legt nahe, dass die Prognosen des IPCC, der oft einen Anstieg von 3 bis 4 Millimetern pro Jahr bis 2100 vorhersagt, den jährlichen Anstieg um etwa 2 Millimeter überschätzen. Diese Diskrepanz ist nicht trivial. Sie führt zu fehlgeleiteten Investitionen in Infrastruktur und Anpassungsmaßnahmen in Milliardenhöhe, die von einem weitaus schlimmeren Szenario ausgehen, als es die Daten belegen. Denn wir wissen heute, dass lokale, nicht klimatische Phänomene eine plausible Ursache für den stellenweise gemessenen beschleunigten Anstieg des Meeresspiegels sind.

Anstatt auf der Grundlage fragwürdiger Prognosen und fehlerhafter Klimawissenschaft wirtschaftlich destruktive Initiativen zur Reduzierung der Treibhausgasemissionen zu verfolgen, sollten Geld und Zeit in die Unterstützung der Küstengemeinden investiert werden, damit diese mit Hilfe genauer Daten praktische Pläne zur Anpassung an den lokalen Anstieg des Meeresspiegels erstellen können.

In Regionen, die anfällig für Überschwemmungen und Schwankungen des Meeresspiegels sind, gibt es seit Jahrhunderten erfolgreiche Anpassungsstrategien. Die Niederlande sind ein hervorragendes Beispiel dafür, wie technische Lösungen die Küstenbevölkerung schützen können, selbst wenn diese unterhalb des Meeresspiegels lebt.

Der Anstieg des Meeresspiegels ist real, aber keine Krise. Wir haben es mit einem beherrschbaren, vorhersehbaren Phänomen zu tun, an das sich die Gesellschaften seit Jahrhunderten angepasst haben. Es zu einer existenziellen Bedrohung aufzubauschen bedeutet, die Gemeinschaften in die Irre zu führen, welche die Politik zu schützen vorgibt, Ressourcen falsch zu verteilen und ihnen letztlich zu schaden.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://wattsupwiththat.com/2025/09/22/latest-science-further-exposes-lies-about-rising-seas/

Übersetzt von Christian Freuer für das EIKE

 




Der negative Treibhauseffekt Teil 1

Die Auswirkungen des Treibhauseffektes kehren sich um, wenn Luft nicht kälter sondern wärmer als ein fester Körper ist, mit dem sie IR-Strahlung austauscht. In diesem Fall sollten Treibhausgase eine Abkühlung der Luft und eine Zunahme der ausgehenden IR-Strahlungen verursachen. Die Idee vom negativen Treibhauseffekt nimmt Gestalt an, um im Laborexperiment überprüft zu werden.

Abstract

In der vorliegenden Arbeit wird eine experimentelle Untersuchung vorgestellt, die auf dem Prinzip des negativen Treibhauseffektes (TH-Effekt) basiert. Die Auswirkungen des TH-Effektes kehren sich um, wenn Luft nicht kälter, sondern wärmer als ein fester Körper ist, mit dem sie IR-Strahlung austauscht. In diesem Fall verursachen Treibhausgase (TH-Gase) eine Abkühlung der Luft und eine Zunahme der ausgehenden IR-Strahlung, die durch Sensoren auf einer gekühlten Platte detektiert wird. Mit einer Reihe von Experimenten lässt sich zeigen, dass die IR-Strahlung der TH-Gase keine „ominöse“ Erscheinung ist, sondern ganz real existiert. Das bedeutet, dass die Strahlung der TH-Gase tatsächlich erfahrbar und messbar ist. Die Ergebnisse wurden kürzlich im Journal Science of Climate Change publiziert [1] und sollen hier in verkürzter, leichter verständlicher Form vorgestellt werden. Da die Untersuchungen sehr umfangreich sind, wird die Arbeit in zwei Teile gegliedert.
Im ersten Teil geht es um theoretische Betrachtungen von allgemeinem Interesse. Warum die viel stärkere CO₂-Bande von 4,3 µm im Vergleich zur 15 µm Bande für den Wärmetransport unbedeutend ist, warum Wasserdampf das dominierende Treibhausgas ist und warum man in einem Labor-Experiment – wie bei einem Eisberg – grundsätzlich nur die Spitze der Gasstrahlung sehen kann.

Es wird ausgeführt, dass der negative Treibhauseffekt in der Antarktis zur Abkühlung des Planeten beiträgt. Zudem wird die These aufgestellt, dass die Temperatur des Wasserplaneten Erde hauptsächlich durch Verdunstung, Konvektion und Wolkenbedeckung und nicht durch Infrarotstrahlung bestimmt wird.

Ferner werden das allgemeine Konzept der experimentellen Untersuchungen und erste Tests mit der neuen Apparatur vorgestellt. Es zeigt sich, dass mit dem Versuchsaufbau sogar die Wasserdampf-Strahlung nachgewiesen werden kann, was bisher nicht möglich war [2]. Dadurch eröffnen sich neue Möglichkeiten, die Überlagerung der Wasserdampf-Strahlung mit der der anderer Treibhausgase zu untersuchen.

Im zweiten Teil wird gezeigt, dass CO₂, Methan und Lachgas auch bei Normaldruck und abhängig von ihrer Konzentration die Wärme ihrer Umgebung spontan in IR-Strahlung umwandeln, wobei Wasserdampf eine dämpfende Wirkung ausübt.

Messungen und Strahlungstransfer-Rechnungen sind in guter Übereinstimmung, wenn die störende Hintergrundstrahlung der Apparatur und unvermeidliche Übertragungsverluste berücksichtigt werden.

Zusätzlich werden die Auswirkungen des negativen Treibhauseffektes anhand von Freon 134a, einem extrem wirksamen Treibhausgas, anschaulich demonstriert. Eine starke Zunahme der IR-Emissionen bei gleichzeitiger deutlicher Abkühlung der Umgebungsluft, selbst bei kleinen Mengen an Freon, lässt keinen Zweifel zu: Die These der Thermalisierung bzw. der strahlungslosen Deaktivierung ist nach der Definition von K. Popper falsifiziert.

1. Einleitung

Treibhausgase (TH-Gase) sind vor allem als Absorber von Wärmestrahlung bekannt, was durch unzählige Infrarotspektren belegt ist. Nach dem Kirchhoff‘schen –Strahlungsgesetz können diese Gase aber auch IR-Emittenten sein. Dieses Gesetz wird jedoch immer wieder angezweifelt, denn im Gegensatz zur kondensierten Materie besteht die Atmosphäre, abgesehen von Aerosolen und Wassertropfen, im Wesentlichen aus frei beweglichen Molekülen. Je nach Molmasse, Temperatur und Druck sind die Moleküle mit Schallgeschwindigkeit oder etwas darüber unterwegs. Wegen dieser Geschwindigkeit und ihrer enormen Anzahl von rund 2,7 ∙ 1025 = 27 Quadrillionen Moleküle pro Kubikmeter Luft sind diese Teilchen ständig Kollisionen von mehreren GHz ausgesetzt.

Wenn ein Luftpaket in der Atmosphäre aufsteigt, dehnt es sich aus und kühlt sich durch diese Volumenarbeit ab. Dadurch sind in einem Kubikmeter Luft in großer Höhe deutlich weniger Moleküle mit geringerer Geschwindigkeit vorhanden, so dass die Zahl der Zusammenstöße sinkt.

Aus diesem Unterschied haben Kritiker geschlossen, dass TH-Gase in der unteren Atmosphäre nur Absorber und keine oder nur schwache Emittenten sind. Die Eigenschaft eines guten Emittenten erhalten sie erst in größerer Höhe, in der Tropopause und Stratosphäre, wo sie zur IR-Ausstrahlung an das All beitragen hier, hier. Als Erklärung geben sie an, dass in der unteren Troposphäre Kollisionsprozesse in Form von hyperelastischen Stößen spontane Emissionen unterdrücken. Demnach würde die absorbierte Energie hauptsächlich in kinetische Energie in Form von Wärme umgewandelt werden, was als Thermalisierung oder strahlungslose Deaktivierung bezeichnet wird.

Bei dieser Interpretation wird außer Acht gelassen, dass es bei den Kollisionen auch inelastische Stöße gibt, die das Gegenteil zu den hyperelastischen Stößen bewirken. Diese Stöße entziehen dem Gasgemisch kinetische Energie, um mit dieser Energie TH-Gasmoleküle zu Schwingungen und Rotationen anzuregen. Diese Prozesse führen letztendlich zu einer Wärmestrahlung weitgehend unabhängig und parallel zu den superelastischen Stößen, die als thermische Hintergrundstrahlung bezeichnet wird (Harde 2013 [4], Kap. 2.3). Diese Emission wird durch die Lufttemperatur und damit die Besetzung von angeregten Schwingungs-Rotationsniveaus entsprechend einer Boltzmann-Verteilung vorgegeben und ist der Hauptgrund dafür, dass mit zunehmender Höhe die Strahlungsintensität deutlich abnimmt. So beträgt sie in 11 km Höhe für CO₂ beispielsweise nur 12 % der Intensität, die in einer 100 m dicken Gasschicht in Bodennähe beobachtet wird.

In den EIKE-Artikeln prallen seit einigen Jahren diese beiden konträren Auffassungen aufeinander und das, obwohl es detaillierte Laborexperimente zur Existenz eines Treibhauseffektes gibt (siehe Harde, Schnell 2024 und [2]). Aber vielleicht lassen sich ja doch noch einige Zweifler durch neuere Laborexperimente davon überzeugen, dass die drei wichtigsten infrarotaktiven Gase der Atmosphäre  CO₂, Methan und Lachgas auch bei Normaldruck spontan IR-Strahlung auf Kosten der Wärme ihrer Umgebung erzeugen.

2. Theoretische Grundlagen

TH-Gase können im mittleren und langwelligen IR-Spektralbereich Strahlung absorbieren und auch wieder emittieren. Dieser Spektralbereich erstreckt sich auf einer Wellenlängenskala λ von ca. 4 µm bis in den cm-Bereich. Innerhalb dieses Spektralintervalls haben die wichtigsten TH-Gase in der Atmosphäre wie Wasserdampf (WD), Kohlenstoffdioxid (CO₂), Methan (CH), Lachgas (NO) und Ozon (O) zusammen 722.000 Spektrallinien. Viele dieser Linien sind zwar sehr schwach, aber aufgrund der langen Ausbreitungswege in der Atmosphäre tragen auch sie deutlich zur Wechselwirkung mit der Strahlung bei.
In der Spektroskopie ist es üblich, Absorptionslinien mit der Wellenzahl (Englisch: Wave Number), dem reziproken Wert der Wellenlänge, anzugeben. Die Wellenzahl gibt an, wie viele Schwingungen eine Welle pro Zentimeter ausführt, und wird in der Einheit cm-1 ausgedrückt. Das hat einige Konsequenzen, die verwirrend sein können: Die starke asymmetrische CO₂-Streckschwingung von 4,3 µm befindet sich nun auf der rechten Seite bei 2326 cm-1 und die schwächere CO₂- Biegeschwingung von 15 µm auf der linken Seite bei 667 cm-1 (Abb. 1, rote Linien):

Die spektrale Linienintensität in Abb. 1, sagt jedoch nichts über ihren Anteil an der IR-Emission eines Luftpaketes bei einer bestimmten Temperatur aus, die wesentlich durch die thermische Stoßanregung entsprechend einer Boltzmann-Verteilung und gemäß dem Planck‘schen Gesetz bestimmt wird (siehe Abb. 2; Harde 2013, Kap. 2.3 [4]):

Die rote, gestrichelte Linie zeigt die Planck-Verteilung eines Schwarzkörper-Strahlers bei einer Temperatur von 44 °C (Emissivität ε = 100 %), entsprechend der Temperatur der Gase bei den Untersuchungen. Für jede Spektrallinie ist diese Begrenzung die maximal mögliche Strahlungsdichte (spektrale Intensität) in der Versuchsapparatur, mehr geht nicht. Das ist der Grund warum die sehr starken CO₂-Linien (rot) in Abb. 1 um 2300 cm^-1 mit nur 1,3 W/m2 gegenüber einer theoretischen Gesamtemission von CO₂ mit 28,8 W/m2 eine absolut untergeordnete Rolle spielen. Dagegen stimmen die relativ kleinen CO₂-Emissionen in Abb. 1 um 670 cm^-1 mit ihren vielen Rotationslinien praktisch mit dem Maximum überein und bestimmt daher maßgeblich den Anteil von CO₂ am TH-Effekt (Abb. 2, rote Linien).

Lachgas (N2O, orange), als eigenständige Emission mit 29,2 W/m2, wird zusätzlich überdeckt durch Methan (CH4, grün) mit 11,1 W/m2, und die stärkste Bande von N2O um 2250 cm^-1 hat kaum einen Einfluss auf die Gesamtemission.

Ebenfalls ist klar zu erkennen, dass nicht CO₂, sondern Wasserdampf (WD, blau) mit einer Gesamtemission von 42,2 W/m2 das dominierende Treibhausgas ist und größere Teile der anderen Gase überlagert, obwohl hier mit gleichen Konzentrationen gerechnet wurde. Die Einzelbeiträge der vier betrachteten Gase addieren sich zu einer Intensität von 111,3 W/m2, die wirksame Gesamtintensität beträgt jedoch nur 75,8 W/m2 und ist somit 32 % geringer.

Dieser Wirkungsverlust entsteht, wenn sich die Strahlung unterschiedlicher Gase überlagert und dabei dieselben Banden beansprucht werden. Das trifft insbesondere auf Wasserdampf zu, was sich auch experimentell nachweisen ließ (siehe Teil 2).

In der unteren Atmosphäre ist die Konzentration von Wasserdampf im Mittel 35-mal höher als die von CO₂. Dadurch nimmt die Überlappung so stark zu, dass die allein von CO₂ emittierte Strahlung mit 83 W/m² in Richtung Erdoberfläche (bei einer Bodentemperatur von 15 °C) nur noch mit 22 W/m² beiträgt, also zu rund einem Viertel. Dagegen macht sich WD allein bereits mit 281 W/m2 bemerkbar, und zusammen tragen sie zu einer Rückstrahlung von 304 W/m2 bei. Wird hierbei noch berücksichtigt, dass die über das Industriezeitalter angestiegene CO₂ Konzentration von 280 auf 420 ppm aufgrund der Sättigung der Banden nur 2,2 W/m2 zusätzlich beisteuert (Anstieg von 301,4 auf 303,6 W/m2) und dieser Anteil sich bei einer mittleren Bewölkung von 66% sowie einer Wolkenhöhe von 5 km sogar auf nur 1,3 W/m2 reduziert (328,1 auf 329,4 W/m2), ist der Beitrag von CO₂ zu der Gesamt-Rückstrahlung in der Tat praktisch zu vernachlässigen.

3. Das experimentelle Konzept und Analyse des Wärmestroms

Dass Treibhausgase grundsätzlich auch Emitter sind, sollte unbestritten sein, denn der Energieeintrag der Sonne kann das System Erde/Atmosphäre letztlich nur in Form von elektromagnetischer Strahlung wieder verlassen. Strittig ist lediglich, ob dies auch bei Normaldruck funktioniert. Genau hier setzt die Idee für das neue Laborexperiment an. Normaldruck in einem Experiment erfordert keine besonderen Maßnahmen. Man kann also ohne großen Aufwand der Frage nachgehen, wie ein erwärmtes Luftpaket reagiert, wenn ihm eine kleine Menge eines IR-aktiven Gases zugesetzt wird.
Um das zu überprüfen braucht man lediglich einen geheizten Luftzylinder als Strahlungsquelle und eine gekühlte PC-Platte als Strahlungsempfänger. Beide Teile sind senkrecht übereinander gestellt, um Konvektion zu verhindern (Abb. 3). Eine PE-Folie zwischen Zylinder und Kühlplatte vermindert eine direkte Wärmeleitung, so dass die Wärme hauptsächlich durch Infrarotstrahlung auf die gekühlte Platte PC übertragen wird. Dieser Wärmestrom Q wird von den Sensoren
TD und VP registriert, die sich auf der PC-Platte befinden (weitere Details und eine ausführliche Beschreibung der Apparatur finden sich in Teil 2).

Der Versuchsaufbau ermöglicht einen kontinuierlichen Wärmestrom in nur eine Richtung, vom warmen Luftzylinder zur kälteren PC-Platte. Eine mögliche Verletzung des zweiten Hauptsatzes der Thermodynamik ist somit per se ausgeschlossen, womit das Hauptargument der Skeptiker entfällt.

Da es im Falle des Zylinders um Temperaturen geht, wird er nicht elektrisch geheizt (wie z.B. in [2]), sondern indirekt durch eine Mantelheizung mit thermostatisiertem Wasser TW von 51 °C. Zwischen Mantelheizung TW und Zylinderwand befindet sich eine 2 mm starke Styroporisolierung, die einen abgeschwächten Wärmestrom vom Heizwasser zur Innenluft des Zylinders bewirkt. Aufgrund dieser Isolierschicht hängen die Zylindertemperaturen T1 bis T5 nicht nur von der Heizung TW, sondern auch von dem ausgehenden Wärmestrom Q ab. Das lässt sich experimentell durch einen schrittweisen Anstieg der TW-Temperatur nachweisen. Ohne Wärmestrom Q zur PC-Platte müssten sich die Heiztemperatur TW und die Temperaturen T1 bis T5 nach einer gewissen Verzögerung annähern. Es zeigt sich jedoch, dass bei steigender TW-Temperatur die Unterschiede immer größer werden, was durch einen zunehmender Wärmestroms Q verursacht wird (Abb. 4a). Dabei wird die meiste Wärme an der T1-Position abgegeben. Diese Interpretation findet ihre Bestätigung im ansteigenden Wärmestrom Q, der von den Detektoren TD und VP registriert wird (Abb. 4b).

Der Wärmestrom Q zur PC-Platte setzt sich aus Strahlungstransfer I0 und der äußeren Wärmeleitung WL vom Zylinderboden zur PC-Platte zusammen. Die stufenweise Erhöhung von TW wurde in kleinen Schritten mit einer Ruhephase von 20-Minuten vorgenommen. Bei jeder Messung lag am Ende dieser Ruhephase ein annähernd thermisches Gleichgewicht vor. Aufgrund der ruhenden Luft lässt sich die mechanische Wärmeleitung mit der vereinfachten Formel (1) abschätzen. Demnach macht der Wärmestrom WL nur rund 6 % des gesamten Wärmestroms Q aus (Abb. 4b, grüne Kurve).

Nach diesen Berechnungen werden etwa 94 % des Wärmestroms Q durch IR-Strahlung I0 transportiert. Einerseits ist dies der gewünschte Energietransport, andererseits ist es aber auch eine schlechte Nachricht, denn diese I0-Strahlung ist die Hintergrundstrahlung des luftgefüllten Zylinders ohne TH-Gase. Die Hintergrundstrahlung überlagert und verdeckt die Strahlung der TH-Gase, sodass bei diesen Experimenten immer nur die Spitze der Gasstrahlung sichtbar wird, ähnlich wie bei einem Eisberg (Kap. 4). Das ist der Hauptgrund, weshalb der Nachweis der Gasstrahlung so schwierig ist und vorherige Experimente an diesem Problem gescheitert sind.

Eine horizontal aufgestellte Styroporbox scheint auf den ersten Blick eine bequeme Lösung zu sein, da sie kommerziell verfügbar ist und sich leicht verarbeiten lässt. So haben Seim und Olsen [5] versucht, unsere bisherigen Untersuchungen zum Treibhauseffekt [2] mit einem solchen Aufbau zu überprüfen. Sie konnten bestätigen, dass CO₂ einen gewissen Temperaturanstieg verursacht aber die Werte waren viel kleiner als von uns gefunden. Die verschiedenen Gründe für das Scheitern dieses Versuchs werden in Part I unserer Mitteilungen bei „Science of Climate Change” dargelegt und können dort nachgelesen werden [3].

4. Die Wasserdampf-Strahlung

Bei dem Erwärmungs-Experiment im vorherigen Kapitel (Abb. 4) wurde getrocknete Luft mit einer Konzentration von rund 0,15 Vol.-% im Innern des Zylinders verwendet. Die Wiederholung dieses Experimentes mit normaler Laborluft mit einer WD-Konzentration von 1,1 Vol.-% ergab einen Anstieg des ausgehenden Wärmestroms Q von 5 – 8 W/m2 (Abb. 5). Dieser Anstieg von Q wird durch die IR-Strahlung des Wasserdampfes verursacht. Dadurch eröffnen sich völlig neue Möglichkeiten, die Rolle des Wasserdampfs beim Treibhauseffekt zu untersuchen (siehe Teil 2). Hierzu wird vor Versuchsbeginn die Zylinderluft wahlweise unbehandelt belassen, getrocknet oder zusätzlich angefeuchtet. Auf diese Weise konnten drei WD-Konzentrationen von 0,15, 1,1 und 1,9 Vol. % im Zylinder realisiert werden. Eine zusätzliche Anfeuchtung mit 1,9 Vol.-% Wasserdampf erwies sich jedoch als schwierig, da Wasserdampf bei unkontrollierbaren Wärmebrücken sehr leicht kondensiert. Deshalb wurde diese hohe Konzentration nur bei der CO₂-Untersuchung verwendet.

In Teil 2 wird gezeigt, dass für den Nachweis der Emissionen von CO₂, Methan und Lachgas Konzentrationen von bis zu 8 Vol.-% erforderlich sind. Wie oben ausgeführt, kann dies mit Wasserdampf nicht erreicht werden. Deshalb wird Wasserdampf nicht als Treibhausgas untersucht, sondern nur sein Einfluss auf die anderen TH-Gase mit relativ geringen WD-Konzentrationen (Teil 2).

5. Hintergrundstrahlung und Transmissionsverluste

Die besondere Herausforderung bei der Messung der Gasstrahlungen besteht darin, diese trotz der vorhandenen Hintergrundstrahlung der Zylinderwände nachzuweisen. Die Innenfläche des Zylinders ist gut 10-Mal größer als die Ausstrahlungsfläche, und durch Mehrfach-Reflexion wirkt der Zylinder wie ein Hohlraumstrahler. Dadurch erreicht der Zylinder trotz eines sehr niedrigen Emissionsgrades der polierten Aluminium-Wände von nur ca. 5 % eine deutlich höhere Strahlungsintensität als eine ebene Platte aus gleichem Material (siehe Hohlraumstrahler, z.B. Atkins & Friedman 2011[6]).

Um sich ein Bild vom Verhältnis von Hintergrund- und Gasstrahlung zu machen, wird eine Rechnung bei Überlagerung der verschiedenen Strahlungsquellen unter Berücksichtigung von Übertragungsverlusten vorgestellt (Abb. 6).

Die resultierende Gesamtemission der Zylinderwände lässt sich durch einen effektiven Emissionsgrad εeff = 42 % kennzeichnen, und der Verlust der Strahlung zu den Detektoren durch den eingesehenen Raumwinkel sowie die Transmission der PE-Folie durch einen Verlustfaktor von VΩ ~ 40 % angeben.

Die deutlichen Einschnitte bei 740 cm^-1, 1.350 cm^-1 und 1.400 cm^-1 werden durch die Transmissionsverluste der PE-Folie bei diesen Wellenzahlen verursacht.

Die Emissionen der Wand (grau) und des Wasserdampfes (blau) ergeben zusammen 90,3 W/m2. In Gegenwart von 2 % CO₂ steigt diese Intensität auf 95,6 W/m2 an. Dieser Anstieg um nur 5,3 W/m2 entspricht 18,4 % der eigentlichen CO₂-Strahlung von 28,8 W/m2 ohne Überlagerungen mit anderen Strahlungsquellen. Trotz des optimierten Versuchsaufbaus, der vertikalen Aufstellung und der verspiegelten Aluminiumoberflächen ist, wie bei einem Eisberg, nur die Spitze der CO₂-Gasstrahlung sichtbar (rote Linien).

6. Der negative Treibhauseffekt

6.1 Definition des TH-Effektes und eine vereinfachte Ableitung

Nach Thomas und Stamnes (1999) [7] und dem aktuellen Klimabericht des IPCC, AR6 [8] wird der atmosphärische Treibhauseffekt als Differenz der Strahlungsintensitäten definiert, die vom Erdboden FS (s = surface) und an der oberen Atmosphäre FTOA (TOA = Top of the Atmosphere) ausgehen. Dazu lässt sich nach Schmithüsen et al. [9] folgendes ableiten:
Die Strahlungsintensität FS der Erdoberfläche in W/m2 lässt sich nach dem Stefan-Boltzmann-Gesetz berechnen:

Die Ausstrahlung TOA an das Weltall FTOA ergibt sich aus der Erdabstrahlung, die nicht von der Atmosphäre absorbiert wird (Term 1), plus der Strahlung, die von der Atmosphäre erzeugt wird (Term 2).

Unter der Annahme eines einfachen Zwei-Lagen-Modells mit einer Temperatur der Atmosphäre TA und der Ersetzung des atmosphärischen Absorptionsgrads αA durch den zahlenmäßig identischen Emissionsgrad εA lässt sich Gleichung (3) zum Treibhauseffekt (THE) umstellen (weitere Details siehe [1]):

6.2 Die verschiedenen Auswirkungen des Treibhauseffektes

Die Temperaturdifferenz von Erdoberfläche und Atmosphäre entscheidet, ob der Treibhauseffekt wärmt oder kühlt, ob der Treibhauseffekt positiv oder negativ ist (Gl. 4). Aus der Temperaturdifferenz zwischen Erde und Atmosphäre ergeben sich drei Szenarien.

A) (TS > TA): Üblicherweise nimmt die Temperatur der Troposphäre mit zunehmender Höhe durchschnittlich um 6,5 °C/km ab, wodurch die Erdoberfläche wärmer als die Troposphäre ist. Der Treibhauseffekt ist positiv und hat einen wärmenden Effekt. Bei diesem „klassischen“ Treibhauseffekt behindert die Atmosphäre den IR-Strahlungstransport in das Weltall. Die Intensität der Ausstrahlung (Top of the Atmosphere) FTOA ist geringer als die ursprüngliche Erdabstrahlung FS. Der Treibhauseffekt ist somit eine Art Wärmedämmung beim Strahlungstransport von Energie (hier).

B) (TS = TA): Bei gleichen Temperaturen und εS = 1 würde es keinen Treibhauseffekt geben wie Richard S. Lindzen zutreffend formuliert hat:
Es ist eine interessante Kuriosität, dass es in dem Falle, dass die Konvektion eine konstante Temperatur erzeugt hätte, keinen Treibhauseffekt geben würde(hier).

C) (TS < TA): Ist die Erde kälter als die Atmosphäre kommt es zu einem negativen Treibhauseffekt. In diesem Fall ist die Intensität der Ausstrahlung FTOA größer als die der Erdabstrahlung FS. Die benötigte Energie für diese zusätzliche Strahlung wird der Atmosphäre entnommen, wodurch es zu einer Abkühlung kommt. Eine solche Konstellation wird im aktuellen Experiment realisiert, um einerseits die Emissionseigenschaften der Treibhausgase zu zeigen und andererseits die Existenz des negativen Treibhauseffekts im Modellmaßstab nachzuweisen.
Der negative Treibhauseffekt kommt auch bei Inversionswetterlagen oder bei der nächtlichen Abkühlung vor, wenn die erdnahe Luft wärmer als der Boden ist.
Klimatisch bedeutsam ist der negative Effekt bei den Erdpolen. Im Innern des antarktischen Kontinents ist die Oberfläche oft kälter als die der Stratosphäre, was die langwellige Ausstrahlung in dieser Region erhöht und die Abkühlung des Planeten verstärkt (Schmithüsen, 2015 [9], siehe auch die Winterpförtner-Hypothese (hier).

Ein Sonderfall ist Wärme, die durch Hebung als fühlbare oder latente Wärme in größerer Höhe (rund 5 km oder höher) freigesetzt wird. Hier bewirkt vor allem CO₂ eine Abkühlung und somit einen negativen Treibhauseffekt, da das sehr kalte Weltall mit rund -270 °C der direkte Strahlungspartner ist und nur wenig Wasserdampf in großen Höhen existiert.

Um einem Missverständnis vorzubeugen: Die Anerkennung des Treibhauseffekts ist kein Plädoyer für eine Klimakatastrophe, sondern lediglich die Feststellung eines realen atmosphärischen Phänomens. Für die Wärmeströme in der Atmosphäre ist der Treibhauseffekt jedoch zweitrangig. Die Erde, die zu 70 % von Wasser bedeckt ist, kontrolliert ihre Oberflächentemperatur hauptsächlich durch Verdunstung, Konvektion und vor allem durch den Wolkenbedeckungsgrad. Nach F. Vahrenholt sind nur 20 % der Erd-Erwärmung durch Treibhausgase aber 80 % durch die menschengemachte Verringerung der Wolkendecke verursacht (hier).

Die Bildung von Wolken hängt kritisch von der Existenz von Kondensationskeimen ab, u.a. von den gesundheitsschädlichen Schwefelsäure-Aerosolen, die sich aus Schwefeldioxid bilden. Ihre Entfernung durch die vorgeschriebene Rauchgasentschwefelung seit 1974 hat uns den blauen Himmel zurückgeholt und uns mehr Sonnenstunden und damit höhere Temperaturen aber auch die Hitzewellen beschert. Wer Feinstaub im Vergleich zu Global Warming als das größere Übel betrachtet, muss eben mit den Konsequenzen leben.

Die Bedeutung von Wolken bzw. deren Fehlen lässt sich leicht aufzeigen, wenn man sich die Gebiete mit den bisher höchsten gemessenen Erd-Temperaturen anschaut. In diesen Gebieten gibt es weder Wolken noch größere Mengen an Wasserdampf. Letzteres ist von besonderer Bedeutung für den CO₂-TH-Effekt, denn erst durch die sogenannte „Wasserdampfrückkopplung“ wird aus dem eigentlich harmlosen Gas eine globale Bedrohung. Merkwürdig ist nur, dass die wärmsten Orte der Welt nicht die feuchten Regenwälder am Äquator, sondern die Trocken- bzw. Wendekreiswüsten in den Subtropen sind.

Der Ort mit der höchsten Bodentemperatur von 70 – 78 °C ist die Dascht-e Kawir Wüste im Iran mit einem jährlichen Niederschlag von < 50 mm (hier).

Das Death Valley ist eine der trockensten Regionen der Erde. Dort erreichte am 10. Juli 1913 die Luft eine Temperatur von 56,7 °C, den höchsten dort jemals gemessenen Wert (hier).
Antriebe für diese Temperaturen sind natürlich die Nähe zum Äquator, der klare Himmel mit den maximal möglichen Sonnenstunden und ein trockener Boden ohne Wasserverdunstung. Aber auch die Fallwinde, die einer Kühlung durch Konvektion entgegen wirken.

In Gegenwart großer Mengen an Wasserdampf sehen die Temperaturen ganz anders aus. So sind die Tageshöchstwerte in den tropischen Regenwäldern trotz ihrer Nähe zum Äquator und ihrer hohen Luftfeuchtigkeit nur etwa 30 °C (hier). Da feuchte Luft aufgrund ihrer geringen Dichte die Konvektion verstärkt, führt dieser besonders starke Auftrieb zu einer Klimastabilität in den Tropen. Bei Klimaerwärmung kommt es zu einer sogenannten tropischen Dämpfung. Als Folge des Auftriebs in den Tropen entstehen in den Subtropen trockene Fallwinde. Diese erzeugen zusätzliche Gebiete mit klarem Himmel, so dass die langwellige Strahlung effizienter in den Weltraum emittiert werden kann (hier).

Allerdings muss man hier einräumen, dass in den Tropen neben der Verdunstungskälte auch die Wolkenbildung und die dadurch verringerte Sonneneinstrahlung sowie die nahezu täglichen Regenfälle für die gemäßigten Tag-Nacht-Temperaturen zwischen 25 und 30 °C verantwortlich sind.

Die Ozeane können mit den Temperaturen der Trockenwüsten nicht mithalten. Der wärmste von ihnen, der Indische Ozean kommt auf maximal 28 °C (Stand 2021) (hier). Das liegt nicht nur an seiner gewaltigen Wärmekapazität und der thermohalinen Zirkulation (Meeresströmungen, die warme und kalte Ozeane miteinander verbinden, die auch als globales Förderband bezeichnet werden). Vor allem liegt es aber an seiner Verdunstungskühlung, die zu Wolkenbildung und Niederschlägen führen. Wenn der Mensch hier eingreift, z.B. mit wohlgemeinten Maßnahmen zur Luftreinheit, richtet er beim Klima mehr Schaden an als durch die Freisetzung von CO₂ (hier, hier).

Und im Übrigen, sehr geehrter Herr António Guterres, siedet reines Wasser bei Normaldruck erst bei 100 °C und salzhaltiges Ozean-Wasser sogar noch etwas höher. Ein kochendes Zeitalter ist somit vollkommen ausgeschlossen, selbst wenn der Indische Ozean noch 1 oder 2 Grad wärmer werden sollte, – da ist die Physik unerbittlich.

Referenzen

  1. H. Harde, M. Schnell 2025: The Negative Greenhouse Effect Part II: Studies of Infrared Gas Emission with an Advanced Experimental Set-Up, Science of Climate Change, Vol. 5.3., pp. 10-34.

  2. H. Harde, M. Schnell, 2021: Verification of the Greenhouse Effect in the Laboratory, Science of Climate Change, Vol. 2.1, 1-33. https://doi.org/10.53234/scc202203/10

  3. M. Schnell, H. Harde, 2025: The Negative Greenhouse Effect Part I: Experimental Studies with a Common Laboratory Set-Up, Science of Climate Change, Vol. 5.3., pp. 1-9.

  4. H. Harde, 2013: Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis, International Journal of Atmospheric Sciences (Open Access), vol. 2013, http://dx.doi.org/10.1155/2013/503727

  5. T.O. Seim, B.T. Olsen 2023: The Influence of Heat Source IR Radiation on Black-Body Heat ing/Cooling with Increased CO₂ Concentration, Atmospheric and Climate Sciences, 13, 240-254.

  6. P. Atkins, R. Friedman, 2011: Molecular Quantum Mechanics, 5. Edition, Oxford University Press, Oxford, Schwarzkörperstrahlung | tec-science

  7. G. E. Thomas, K. Stamnes, 1999: Radiative Transfer in the Atmosphere and Ocean, Cambridge Univ. Press, Cambridge, U. K., equation 12.19.

  8. IPCC Sixth Assessment Report (AR6), 2021: V. Masson-Delmotte, P. Zhai, A. Pirani et al.: Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge University Press.

  9. H. Schmithüsen, J. Notholt, G. König-Langlo, P. Lemke, T. Jung, 2015: How increasing CO₂ leads to an increased negative greenhouse effect in Antarctica, Geophys. Res. Lett., 42, pp. 10, 422–10,428, https://doi.org/10.1002/2015GL066749




Kältereport Nr. 38 / 2025

Meldungen vom 22. September 2025:

Früher Schnee in den Alpen

Die Modelle zeigen einen ungewöhnlich starken Herbstbeginn in Mitteleuropa.

Die neuesten GFS-Prognosen simulieren bis zum 1. Oktober ein vollständiges Höhentief („Kaltlufttropfen“), das in den polaren Jetstream im 300 hPa-Niveau (9 km) über den Alpen eingebettet ist. Diese Konstellation wird voraussichtlich zu starken Schneefällen führen und die Schneegrenze unter 1.500 m sinken lassen.

Die Schneehöhenvorhersagen zeigen, dass sich bis Mitte der Woche in weiten Teilen der zentralen und östlichen Alpen bis zu 30 cm Schnee ansammeln werden.

Dies ist ein heftiger Start in den September, der mit einer allgemeinen Abkühlung in Europa einhergeht.

Weit verbreitete Anomalien von -4 °C bis -8 °C werden den Kontinent diese Woche erfassen.

Im Moment ist dies noch eine Vorhersage. Die Woche wird zeigen, was daraus wird. A. d. Übers.]

———————————–

Sibirien: Weitere Ausdehnung der Schneedecke, Tendenz weiter steigend

Die Schneedecke im Herbst wächst schnell in Nordrussland und Sibirien, und Prognosen deuten auf eine weitere Ausdehnung in den kommenden Tagen hin.

Die neueste Analyse des Rutgers Global Snow Lab (21. September) zeigt große positive Anomalien der Schneedecke in Sibirien:

Mit Blick auf die Zukunft prognostizieren die neuesten GFS-Modellläufe starke, weit verbreitete Schneefälle in ganz Eurasien bis Ende September und Anfang Oktober – von Nordrussland und Sibirien bis hinunter in die Mongolei und nach Kasachstan.

Seit Jahren nehmen die „Dzuds” in der Mongolei zu (extreme Frost- und Schneevorkommen, die sowohl für Vieh als auch für Menschen tödlich sind). Zwischen 1940 und 2015 wurden zweimal pro Jahrzehnt offizielle Dzud-Erklärungen abgegeben. In den letzten Jahren treten sie nun jährlich auf. Selbst die UNO räumt ein, dass Dzuds „ein zunehmendes Phänomen” sind – allerdings bringt man dies dort mit der „globalen Erwärmung” in Verbindung. Erwärmung = Abkühlung.

Der frühe Schneevorstoß in Eurasien wird seit langem mit den Verläufen des Winterms in den weiter südlich und westlich gelegenen Regionen in Verbindung gebracht.

Die sich schnell entwickelnde Schneedecke in Sibirien trägt dazu bei, dass es später in der Saison zu Blockaden in hohen Breitengraden kommt, wodurch arktische Luft in mittlere Breitengrade vordringen kann. In Europa, Ostasien und sogar Nordamerika gab es in Jahren mit schnellem Schneezuwachs in Sibirien oft kältere und schneereichere Winter.

Bereits im September dieses Jahres hat der frühe Schnee das Artvin-Hochland in der Türkei erreicht, die Alpen wurden heimgesucht, und Kalt-Anomalien haben sich bis nach Saudi-Arabien und Korea ausgebreitet.

Die Indikatoren stimmen überein: Die Schneedecke in Eurasien ist dem Zeitplan voraus, und die Vorhersagen nehmen weiteren Schneefall an.

Link: https://electroverse.substack.com/p/early-snows-the-alps-siberian-snow?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————–

Meldungen vom 23. September 2025:

Sibirien: Früh-saisonaler Rekord-Frost

Der Schnee in Sibirien bleibt dank der außergewöhnlichen Kälte zu Beginn der Saison liegen, wobei die Temperatur auf Werte sinkt, die zu dieser Jahreszeit selten zu beobachten sind.

In Ust-Charky wurde es am Dienstag (23. September) -19,1 °C kalt – der niedrigste Wert im September seit 2014 und nicht weit entfernt vom Rekordtief im September von -21,6 °C.

Delyankir verzeichnete am selben Tag -18,2 °C und damit die niedrigste Septembertemperatur seit 2021, als mit -24 °C der Monatsrekord aufgestellt worden war. In Oymyakon, einem der kältesten bewohnten Orte der Erde, sank die Temperatur auf -17,8 °C, den niedrigsten Wert im September seit 24 Jahren, wobei der Monatsrekord hier nur geringfügig niedriger liegt: -18,3 °C.

Diese Werte, die 15 bis 20 °C unter dem Durchschnitt liegen, wurden durch die bereits jetzt ausgedehnte Schneedecke in den nördlichen Breitengraden begünstigt. Mit dieser frühen Kälteeinwirkung über dem eurasischen Kontinent sind die Voraussetzungen für einen kalten Herbst und möglicherweise einen strengen Winter gegeben.

———————————–

UK friert

Arktische Luft sorgt diese Woche für einen frühen Kälteeinbruch in Großbritannien.

In den letzten Nächten sind die Tiefsttemperaturen bereits unter den Gefrierpunkt gefallen, für vereinzelte Regionen im Norden werden -4 °C vorhergesagt.

Am Montagmorgen sank die Temperatur in Sennybridge in Wales auf -1,7 °C, während sie in Shap im Lake District auf -1,9 °C fiel, wobei in allen vier Ländern von UK Luftfrost gemessen wurde.

Zum Vergleich: Die kältesten jemals in Großbritannien für diese Jahreszeit gemessenen Werte liegen zwischen -2,6 °C am 20. September (Lagganlia 1997) und -6,1 °C am 25. September (Glenlivet 1946).

Der Wetterdienst erwartet den ersten nennenswerten Schneefall der Saison auf den höchsten Gipfeln Schottlands, wo der Mountain Weather Information Service vor „ungewöhnlich kalten” Bedingungen mit sehr kalten Nordwinden warnt.

———————————–

Australien: Beste Schnee-Saison seit Jahren

Die Skisaison 2025 in Australien ist weiterhin die beste seit Jahren, mit einer bis weit in den September hinein anhaltenden Schneedecke und Skigebieten, die bereits Verlängerungen bis weit in den Oktober hinein angekündigt haben.

Perisher in New South Wales meldet eine Schneehöhe von über 150 cm, 32 in Betrieb befindliche Lifte und ein vollständig geöffnetes Gelände. In Victoria nähern sich Mount Buller und Hotham einer Schneehöhe von 100 m. Für diese späte Saison sind das beeindruckende Zahlen.

Das Bureau of Meteorology stellt „perfekte Frühlingsbedingungen” in den Alpen fest, wo kalte Luft und klarer Himmel den Schnee an Ort und Stelle halten. Insbesondere die Skigebiete in New South Wales dürften noch wochenlang in Topform bleiben.

Link: https://electroverse.substack.com/p/13-feet-of-september-snow-for-the?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————–

Meldungen vom 24. September 2025:

Mongolei: Starke Schneefälle

Ein ungewöhnlich heftiger Schneesturm im September hat Teile der westlichen Mongolei unter einer Schneedecke begraben.

Die Nationale Agentur für Meteorologie und Umweltüberwachung meldete für Sonntag und Montag Schneefälle von 25 bis 30 cm in der Provinz Zavkhan, wobei die Schneehöhe in den Bergen 60 cm überschritt.

Der Schnee bedeckte mehrere Soums, darunter Uliastai, Yaruu, Ider, Aldarkhaan, Tsagaankhairkhan, Shiluustei und Otgon. In der Folge sollen die Temperaturen weit unter den Gefrierpunkt fallen, was die Gefahren für Autofahrer und nomadische Hirten noch verstärkt.

Zavkhan ist kein Unbekannter für strenge Winter, aber solch heftige Schneefälle so früh in der Saison unterstreichen die zunehmende Kälte in der Mongolei – einer Region, in der tödliche Dzuds zu einer zunehmenden Gefahr geworden sind und fast jährlich auftreten.

Da Sibirien bereits eine außergewöhnlich frühe Schneedecke aufweist, scheint Nord- und Zentralasien auf einen weiteren strengen Winter vorbereitet zu sein – einer, der sich voraussichtlich nach Westen bis nach Europa ausbreiten wird.

Auch die Kälte zu Beginn der Saison in Sibirien nimmt weiter zu und sorgt für historische Tiefstwerte zu diesem frühen Zeitpunkt im Kalender.

Am 24. September sank die Temperatur in Oymyakon auf -18,2 °C – der niedrigste Wert im September seit 2001 (-18,3 °C) und der sechstkälteste Septemberwert seit Beginn der Aufzeichnungen im Jahr 1943. Verkhoyansk erreichte ebenfalls -16,1 °C, den tiefsten Wert im September seit 2002 (-16,4 °C) und den fünftniedrigsten Wert für diese Jahreszeit seit Beginn der Aufzeichnungen im Jahr 1885.

———————————–

Erster Schnee auch in Skandinavien

Nicht nur Russland, auch Skandinavien wird von ungewöhnlich frühem Schnee heimgesucht.

Diese Woche kommt der Winter in den Norden Skandinaviens, wo die norwegischen Björnfjell-Berge in der Provinz Nordland bereits in Höhenlagen von nur 500 m unter einer dicken Schneedecke liegen.

Starke Nordwestwinde haben feuchte Luft in die Berge getrieben und damit starken Schneefall auf den windzugewandten Hängen ausgelöst.

———————————–

USA: Erster Schneesturm der Saison in Colorado

Das Hochland von Colorado erwacht in weißem Kleid.

Die Skigebiete von Arapahoe Basin bis Winter Park verzeichneten am Dienstag (23. September) den ersten richtigen Schneesturm der Saison, mit 5 bis 7 cm Neuschnee in den Talstationen und mehr als 18 cm am Berthoud Pass.

Der Schneefall hielt bis Dienstag oberhalb von 3.000 m an, bevor er sich nach Norden in Richtung Wyoming verlagerte.

In den nächsten Tagen wird es vorübergehend trocken bleiben, aber Modelle deuten bereits auf eine weitere Schneefallrunde in den Bergen ab dem 29. September hin, wenn das nächste Tief aus dem pazifischen Nordwesten hereinzieht.

Schnee im September ist in Colorado nicht besonders selten, aber so erhebliche Schneemengen wie diese geben frühzeitig den Ton an. Das Hochland hat einen guten Start hingelegt.

Link: https://electroverse.substack.com/p/heavy-snow-slams-mongolia-early-flakes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————–

Meldungen vom 25. September 2025:

Europa: Erster starker Schneefall in den Alpen und den Pyrenäen

Der erste bedeutende Schneefall der Saison hat die Berge Europas erreicht. Die Temperaturen in den Pyrenäen sind um mehr als 20 °C gefallen und haben sich fast über Nacht von spätsommerlicher Wärme zu klirrender Herbstkälte gewandelt. Dieser Wechsel brachte ordentliche Schneemengen auf die hohen Gipfel, darunter den Pic du Midi de Bigorre und auch La Mongie.

Ein derart weit verbreiteter Schneefall zu dieser frühen Jahreszeit gilt als ungewöhnlich, wobei die Bedingungen nicht auf die Pyrenäen beschränkt sind. In den Alpen wurde die ganze Woche über anhaltender Schneefall beobachtet, wobei sich die Schneemengen beispielsweise im italienischen Aostatal stark erhöhten.

Gleiches gilt auch auf der Zugspitze in Deutschland, wo bereits mit der Schneeräumung begonnen wurde:

Webcam auf der Zugspitze am 25. September, wo die Temperaturen -5 °C erreichten.

Selbst in Spanien bedeckten etwa 20 cm Schnee den Collado Jermoso in den Picos de Europa, das ist dort der stärkste Schneefall im September seit 1997.

———————————–

Frankreich: Historische September-Kälte

Es ist kein Wunder, dass sich in den europäischen Gebirgen bereits früher Schneefall ansammelt – derzeit herrscht in weiten Teilen des Kontinents eine historische Kältewelle. Frankreich verzeichnete am Mittwoch einen außergewöhnlich kalten Septembertag mit Höchsttemperaturen, die mit hundertjährigen Rekorden konkurrieren.

Paris (Montsouris) erreichte nur 10,9 °C und verzeichnete damit die viertniedrigste September-Höchsttemperatur seit Beginn der Aufzeichnungen im Jahr 1873. Limoges kam nur auf 9,1 °C – die zweitniedrigste September-Höchsttemperatur seit 1973. Metz kämpfte sich auf 10,5 °C, die zweitniedrigste Temperatur seit 1936, während der Flughafen Paris Orly nur 11,1 °C erreichte, die zweitkälteste September-Höchsttemperatur seit 1949.

Und die Liste geht weiter: Nancy, Straßburg, Reims, Colmar, Grenoble und viele andere verzeichneten Tageshöchsttemperaturen im niedrigen Zehnerbereich und brachen damit langjährige Rekorde oder kamen ihnen sehr nahe.

Die landesweite Durchschnittstemperatur von nur 10,9 °C am Mittwoch ist einer der kältesten Septembertage, die jemals in Frankreich gemessen wurden, und steht damit auf einer Stufe mit den historischen Kälteeinbrüchen zu Beginn der Saison in den Jahren 1902, 1919 und 1942.

Anomaliekarten (GFS unten) bestätigen das Ausmaß der blauen und violetten Farben. Ein Großteil Westeuropas war am 24. September von winterlichen Bedingungen geprägt, wobei die Gipfel, wie beispielsweise der Mont Blanc, auf -19 °C abkühlten:

Link: https://electroverse.substack.com/p/first-heavy-snows-hit-the-pyrenees?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————–

Meldungen vom 26. September 2025:

Sibirien: Frostverschärfung auf –22,6°C

Die Kältewelle in Sibirien hat sich verstärkt und Russland die niedrigsten Septembertemperaturen seit vier Jahren beschert.

Am 25. September sank die Temperatur in Batagay-Alyta (Flughafen Sakkyryr) auf -22,6 °C und erreichte damit den niedrigsten Septemberwert in ganz Russland seit den -24 °C in Delyankir im Jahr 2021. Der nationale Rekord für September liegt weiterhin bei -27,6 °C in Ilirney im Jahr 1965.

Die brutalen Kälte in Russland im September deutet erneut auf eine zunehmende Ausbreitung der Kälte in Eurasien hin, was Auswirkungen auf den bevorstehenden Winter haben wird.

Darüber hinaus nimmt die außergewöhnliche Schneedecke Sibiriens zu Beginn der Saison weiter zu:

Und es wird noch viel mehr kommen.

Die Kälte breitet sich bereits nach Westen aus und wird sich voraussichtlich mit Beginn des Oktobers in Europa verstärken:

ECMWF 2m-Temperaturanomalien, 29. September bis 6. Oktober

Link: https://electroverse.substack.com/p/siberia-plunges-to-226c-87f-early?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 39 / 2025

Redaktionsschluss für diesen Report: 26. September 2025

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Auf die Nebenwirkungen unseres Handelns kommt es an

Überlegungen zu ESG und Klima-Ethik

Edgar L. Gärtner

Psychologen wissen, dass man das Erwünschte nur selten erreicht, indem man versucht, es direkt anzusteuern. Oft landet man beim Gegenteil. Das gilt auch in Politik und Wirtschaft das heißt für die Ziele Frieden und Unternehmensgewinn bzw. persönlicher Erfolg. Es ist also wichtiger, sich auf Grundsätzliches statt auf quantitative Ziele zu konzentrieren. Menschliche Gesellschaften werden weniger durch Evidenzen und rationale Diskurse zusammengehalten als durch Missverständnisse. Wobei man zwischen produktiven und destruktiven Missverständnissen unterscheiden kann. Wie ich auf dieser Plattform bereits vor über drei Jahren dargelegt habe, wurde die westdeutsche Nachkriegsgesellschaft durch die missverständliche Formel „Soziale Marktwirtschaft“ geprägt. Das ist ein Pleonasmus, weil der Markt nach dem Familienleben ohnehin den zweitwichtigsten Ort gesellschaftlicher Kontakte darstellt. Die Leerformel erwies sich dennoch über einige Jahrzehnte lang als tragfähig und friedensstiftend. Die zur gleichen Zeit von Sozialdemokraten und Gewerkschaftern geforderte „Soziale Gerechtigkeit“ wirkt hingegen polarisierend und ist aktuell in Form der „Klima-Gerechtigkeit“ destruktiv, wenn nicht selbstmörderisch.

In diesen Schlagworten schlägt sich das Ressentiment angeblich zu kurz gekommener gegen die (kapitalistische) Marktwirtschaft nieder. Das Gewinn- bzw. Profitmotiv, oft denunziert als Gier, hat heute schlechte Presse. Während bei echten, das heißt persönlich haftenden Mittelständlern der Zusammenhang zwischen dem Angebot von Dienstleitungen zur Befriedigung konkreter Bedürfnisse ihrer Kunden und dem Gewinnmotiv der Anbieter meist noch auf der Hand liegt, haben vor allem Großunternehmen oft Schwierigkeiten mit der Rechtfertigung ihrer Angebots- und Preispolitik. Deshalb wundert es nicht, dass die Manager der Konzerne in letzter Zeit gerne mit Organisationen zusammenarbeiten, die ihnen mithilfe zum Teil aufwändiger Systeme messbarer Indikatoren wie ESG (Environmental, Social, Governance), oder DEI (Diversity, Equity, Inclusion) und der Ausstellung kostenpflichtiger Zertifikate die ethische Ausrichtung und „Nachhaltigkeit“ ihrer Investitionen bescheinigen.

Investoren bekommen kalte Füße

Doch damit könnte bald Schluss sein. Wir haben an dieser Stelle ausführlich darüber berichtet, dass führende Investmentfonds und Großbanken sich aus dem Geschäft des virtuellen Klimaschutzes zurückziehen. Selbst die „New York Times“, die lange als eine Art Zentralorgan der internationalen Klima-Bewegung fungierte, hat inzwischen den Klima-Wahn für beendet erklärt. Ihnen dämmert die Erkenntnis, dass die Politik Milliarden-, wenn nicht Billionen-Investitionen veranlasst hat, denen kein messbarer Nutzen gegenübersteht – außer bei der Minderheit der Nutznießer angeblich wissenschaftlich begründeter staatlicher Auflagen. So fragen jetzt nicht nur gebeutelte Steuerzahler, sondern auch jene, die ihre Altersvorsorge politisch korrekten, d.h. nach ESG-Kriterien zertifizierten Investitionsfonds anvertraut haben, nach dem Sinn der ganzen Veranstaltung. Statt der klimapolitisch erwünschten Gleichschaltung des Wirtschaftslebens gilt nun in wachsendem Maße die Devise: „Rette sich wer kann!“

Es lässt sich zum Beispiel experimentell nicht klären, ob die Zunahme der Konzentration des atmosphärischen Spurengases Kohlenstoffdioxid (CO2), wie die ESG-Vorschriften behaupten, den Klimawandel hervorruft oder eine Folge des Klimawandels ist. Es lässt sich nicht beweisen, dass Erdöl und Erdgas begrenzte Ressourcen sind. Das führt zu Fragen wie: Gibt es überhaupt einen grundsätzlichen Unterschied zwischen „fossilen“ und „erneuerbaren“ Rohstoffen? Kann die „Energiewende“, die wahrscheinlich Billionen kosten wird, überhaupt funktionieren?

Diese Fragen werden von einer aufgeregten, aber Ton angebenden Szene ausgeblendet, weil das Ziel „Klimaschutz“, was immer auch darunter zu verstehen sein mag, gar nicht die Verbesserung des natürlichen und /oder gesellschaftlichen Klimas ist, sondern die Befriedigung narzisstischer Bedürfnisse der grünen Aktivisten in Regierungen und so genannten Nicht-Regierungs-Organisationen.

Welchem Kompass können wir folgen?

Damit bin ich mitten im Thema dieses Aufsatzes: Wir Menschen haben zwar grundsätzlich die Möglichkeit, verschiedene Konsequenzen unserer Handlungen (einschließlich unseres eigenen Todes) vorauszusehen und aus kurz- und mittelfristiger Sicht zielgerichtet zu handeln. Wir gelten zwar als mit einem freien Willen begabte Abbilder Gottes, doch fehlt uns die Fähigkeit, komplexe Prozesse in Natur und Gesellschaft ganzheitlich zu begreifen und in die fernere Zukunft zu schauen. Diese Fähigkeit ist nach Überzeugung des führenden mittelalterlichen Philosophen Thomas von Aquin Gott vorbehalten. Selbst der „Aufklärer“ Emmanuel Kant ging davon aus, dass wir Menschen nur beobachtbare Trends um einige Jahre zu extrapolieren vermögen und jedenfalls kein Allwissen erlangen, sondern nur so genannten regulativen Ideen folgen und aus Beobachtungen von Datenmustern und Experimenten unter kontrollierten Randbedingungen relative bzw. provisorische Wahrheiten ableiten können.

Zu den regulativen Ideen gehören die Begriffe Freiheit und Wahrheit, die in der Lage sind, Leidenschaften und Kampfesmut zu fördern. Gläubige Christen sind überdies davon überzeugt, dass uns das Wort Gottes in der Bibel zumindest einen Zipfel der absoluten Wahrheit offenbaren kann, wofür allerdings eine oberflächliche Lektüre in der Regel nicht ausreicht. Wichtige naturwissenschaftliche Erkenntnisse wie etwa Einsteins Relativitätstheorien sollten m.E. auch von Skeptikern als Offenbarungen gewertet werden, weil sie nicht experimentell hergeleitet wurden. Ohne festen Glauben an geoffenbarte Empfehlungen und Wahrheiten wie den Dekalog von Moses ist es schwer, im Leben einen Kompass zu finden. Auch Nicht-Christen tun m.E. gut daran, sich an diese Einsicht zu halten. Denn wer diese verdrängt, verliert leicht den Zweck jedes privaten Unternehmens, Gewinn zu erwirtschaften, aus dem Blickfeld und landet beim Versuch, angemaßtes Wissen koste es, was es wolle mit gewaltsamen Methoden umzusetzen und sich dadurch zumindest in der Propaganda an Gottes Stelle zu setzen – auch wenn das Unternehmen dabei mittelfristig baden geht.

Ordo amoris statt Größenwahn

Tiefere Ursache dieser Anmaßung ist die seit der „Aufklärung“ im 18. Jahrhundert fortschreitende Entchristlichung Europas und des gesamten „Westens“. Denn in der Scholastik des christlichen Mittelalters stand es außer Frage, dass Gott und nur Gott für das große Ganze zuständig ist, während die Menschen nur wenige Zusammenhänge durchschauen und in ihrem Handeln nur begrenzten Interessen nachgehen können. Das hat der Dominikaner Thomas von Aquin (gest. 1274) in seinem Hauptwerk „Summa theologiae“ auf den Punkt gebracht: „Das Gut der ganzen Welt ist nun aber das, was von Gott erfasst wird, der ja der Schöpfer und Lenker der Welt ist. Daher will er alles, was er will, im Blick auf das allen gemeinsame Gute, das sein Gutsein selbst ist; dieses ist nämlich das Gut der ganzen Welt. Die Erfassungsweise des Geschöpfes geht aber seiner Natur gemäß auf ein besonderes Gut – wie es seinem Wesen entspricht.

Hienieden „ganzheitliche“ Problemlösungen bzw. das absolut Gute anzustreben, galt deshalb zu Recht als blasphemisch. Wer so handelte, musste mit der Strafe Gottes (bzw. der Selbstbestrafung) rechnen, denn die meisten Menschen gingen nicht ohne Grund davon aus, dass jeder Versuch, Gott zu spielen, im Chaos enden würde. Die Menschen sollten sich stattdessen auf das Wohl ihrer Familie, ihrer Glaubensgenossen, ihrer Kommune und ihrer Nation, d.h. (in den Worten der Bibel) „die Nächsten“ konzentrieren. Die katholische Soziallehre spricht mit Hinweis auf Thomas von Aquin vom „ordo amoris“: die eigene Familie an erster Stelle, dann Angehörige meines Volkes bzw. der politischen Nation und die weltweiten Glaubensgenossen und ganz zuletzt die Menschheit. Allgemeine Menschenrechte gibt es in der Bibel nicht, dafür aber Pflichten, eben die 10 Gebote.

Wir wissen heute nicht zuletzt aus den Erfahrungen mit der von politisch-ideologischem Wunschdenken angestoßenen Umwandlung der Europäischen Wirtschaftsgemeinschaft (EWG) in die Europäische Union (EU), dass die Nation bzw. der Nationalstaat die größte Gemeinschaft ist, mit der sich normale Individuen noch spontan identifizieren können. Probleme, die anscheinend zu groß sind für einzelne Nationalstaaten, können kein Argument für den Aufbau internationaler oder gar globaler Verwaltungsstrukturen in Form eines Weltstaates sein. Dieser wäre notwendigerweise totalitär. Mit der Wahrung der individuellen Freiheit und Eigenverantwortung vereinbar wäre nur die Anerkennung unlösbarer Probleme wie des Klimawandels oder auch der ungewollten Verbreitung potenziell gefährlicher Viren als „höhere Gewalt“, mit der die Menschen irgendwie leben lernen müssen.

Balanceakt zwischen Demut und Wissensanmaßung

Eine Ethik der Verantwortung anstelle einer repressiven Gesinnungsethik ist deshalb ein Balanceakt zwischen Demut und Wissensanmaßung. Das Neue Testament fordert von uns keine unbegrenzte Verantwortung, sondern ein konzentrisches System abgestufter Verantwortung. Nach dem Evangelisten Matthäus lauten Jesu Worte: „Ehre deinen Vater und deine Mutter. Liebe deinen Nächsten wie dich selbst.“ (Mt 19,19) Von „Fernstenliebe“, wie sie der verstorbene Papst Franziskus oder Ex-Bundeskanzlerin Angela Merkel gegenüber dem Strom illegaler Migranten aus muslimischen Ländern gefordert hat, ist nicht die Rede. Thomas von Aquin sprach die noch heute gültige Warnung aus: „Gerechtigkeit ohne Barmherzigkeit ist Grausamkeit; Barmherzigkeit ohne Gerechtigkeit ist die Mutter der Auflösung.“

Die jüdisch-deutsche bzw. amerikanische Philosophin Hannah Arendt (1906-1975) hat in ihrem Meisterwerk „Vita activa“ (1958, 1960) betont, dass es uns Menschen nicht möglich ist, mit unseren Handlungen Ungerechtigkeit vollständig zu vermeiden. Versprechen und deren versuchte Einlösung auch unter widrigen Umständen schränken die Unvorhersagbarkeit gesellschaftlicher Entwicklungen ein. Als Heilmittel gegen die Unwiderrufbarkeit unbefriedigender Handlungsergebnisse fungiert die menschliche Fähigkeit zum Verzeihen. Dieses bezieht sich nur auf die handelnde Person, nicht auf die Sache. Die Kultur der Vergebung, zu der sich echte Christen im täglichen Vaterunser bekennen, verdrängt die kannibalistische Kultur der Rache, die in vorchristlichen Gesellschaften leicht die Oberhand gewinnt. Das ist einer der wichtigsten Beiträge der christlichen Kultur zum Gemeinwohl.

Mit den 10 Geboten des Moses, eigentlich Regeln, die im Futur und nicht im Imperativ formuliert sind (den einen Gott respektieren, nicht morden, nicht stehlen, nicht ehebrechen, nicht neiden), beginnt aus christlicher Sicht das Ende der kannibalistischen Vorgeschichte der Menschheit. Nach Ansicht des liberalen Wirtschaftsnobelpreisträgers Friedrich-August von Hayek handelt es sich dabei um „Regeln, die uns zwar nicht sagen, was in dieser Welt geschieht, aber sagen, dass uns wahrscheinlich nichts geschehen wird, wenn wir sie befolgen.“
Nur die freie Marktwirtschaft ist ohne Abstriche mit dem Dekalog vereinbar. Denn das Gebot „Du wirst/sollst nicht stehlen“ lässt nur freiwilligen Tausch zu beiderseitigem Vorteil zu. Allerdings käme eine totale Marktwirtschaft mit anderen Forderungen des Dekalogs in Konflikt. Das ist bei Geschäften mit Sklaverei, Prostitution, Leihmutterschaft und Kinderhandel zweifelsohne der Fall. Nicht nur die größenwahnsinnige Planwirtschaft, sondern auch das auf allgemeine Regeln – unter Abstraktion vom Inhalt des Tausches – verkürzte und zum Allheilmittel erklärte Wechselspiel von Angebot und Nachfrage kann zur totalitären Repression führen.

Bibel und Marktwirtschaft

Überdies erscheint es mir als sehr bedenklich, wenn Marktmechanismen funktionalisiert werden sollen, um bestimmte politische und/oder moralische Ziele anzusteuern. Westeuropa und Nordamerika sind nicht primär durch die Verkündigung und Durchsetzung frommer Bekenntnisse und moralischer Grundsätze (vorübergehend?) zu den dynamischsten und wohlhabendsten Regionen der Welt geworden, obwohl die sicher auch eine Rolle spielten, sondern infolge des Schutzes des Privateigentums sowie der individuellen Freiheit und Verantwortung. Beides fußt nicht ausschließlich auf dem Dekalog, sondern auch auf der klassischen griechischen Philosophie und dem römischen Recht. Es war die enge Verbindung dieser drei geistigen Strömungen, die die Kultur der Renaissance, die Philosophie der Freiheit, den Aufschwung der wissenschaftlichen Forschung und die industrielle Revolution ermöglicht hat. (Der Aufschwung von Naturwissenschaft und Technik im Mittelalter wurde übrigens dadurch begünstigt, dass nicht weltliche Mächte mit ihren beschränkten konkurrierenden Interessen, sondern die Kirche dafür zuständig war. Das wollen viele heute nicht wahrhaben.)

Fazit: Ohne die Bibel wären Europa und der ganze Westen nicht geworden, was sie sind, bis vor kurzem also die wirtschaftlich und kulturell erfolgreichste Region der Welt. Dass unsere Stärke zu einem beträchtlichen Teil aus dem Geist der Bibel kommt, müssen sich die Europäer heute allerdings von einem Inder erklären lassen. Ich meine damit „Das Buch der Mitte“ von Vishal Magalwadi. Wichtig ist dabei, dass in Europa und Nordamerika nur selten eine direkte Politik für wirtschaftliches Wachstum und Wohlstand gemacht wurde. Beides waren Nebenwirkungen einer Politik, die im Einklang mit dem Dekalog Eigentum und wirtschaftliche Freiheit begünstigte. Deshalb warne ich immer vor einer Politik, die Ziele wie Wohlstand oder „soziale Gerechtigkeit“ proklamiert. Beide können nur Nebenprodukte der Marktwirtschaft sein. In Europa und Nordamerika hat bis vor kurzem im Widerspruch zum in der US-Verfassung erwähnten „Pursuit of Happiness“ (Streben nach Glück) nie das Lustprinzip gegolten. Dieses galt nicht, wie die US-Verfassung vielleicht nahelegen könnte, als allgemeines Menschenrecht. Wäre Glück das primäre Ziel unseres Handelns, könnte man auch Drogen nehmen. Für Christen gelten stattdessen die Worte Jesu: „Wer mein Jünger sein will, der verleugne sich selbst, nehme sein Kreuz auf sich und folge mir nach.“ (Mt 16,24). Das oberste Ziel jedes Einzelnen sollte die Rettung seiner Seele sein. Ganz nebenbei entsteht dadurch auch materieller Wohlstand.