Das Lesch-CO2-Klima-Experiment: so dreist werden Schüler und Lehrer hinters Licht geführt

Die Wissenschaftlergruppe ICR (Independent Climate Research) hat den Versuch aus dem „Klimakoffer“ für Schulen nachgestellt. In diesem Artikel wird im Detail und auf verifizierbarer Basis belegt, weshalb es sich um eine pseudowissenschaftlichen Täuschung handelt. Schlimm ist, dass der bekannte Fernseh-Professor Lesch am Design beteiligt war – der sich auch als Faktenchecker verdingt und inzwischen auch das Lehrpersonal indoktriniert. Das ICR erklärt genau, wie man die Menschen hinters Licht führt, um das CO2-Narrativ aufrechtzuerhalten. Außerdem wird auf den Beutelsbacher Konsens verwiesen, dessen Prinzipien klar verletzt werden. 

Ein Bild, das Screenshot, Text, Kreis enthält. Automatisch generierte Beschreibung

Auf der Basis der Versuchsbeschreibung des ICR, DI Dr. Martin Steiner

Die Ludwig-Maximilians-Universität München (LMU) hat einen sogenannten „Klimakoffer“ entwickelt, welcher als Lehrhilfsmittel von Lehrern angefordert werden kann. Mittels dieses „Klimakoffers“ können verschiedene Schulexperimente durchgeführt werden und den Kindern in der Schule die angebliche „Dramatik des Klimawandels“gezeigt werden.

Das Experiment A5 aus diesem Klimakoffer zeigt (angeblich) ein Experiment zur Wärmeabsorption durch CO2. Wir verlinken hier die „wissenschaftlichen“ Erläuterungender LMU dazu.

Ein Bild, das Text, Screenshot, Schrift, Software enthält. Automatisch generierte Beschreibung Die früher sehr angesehene Ludwig-Maximilians-Universität München stellt einen „Klimakoffer“ für Schulen zur Verfügung.

Die Autoren dieser „Erläuterungen“ sind:

Dr. Cecilia Scorza (Astrophysikerin und Koordinatorin für Öffentlichkeitsarbeit, Fakultät für Physik der LMU), Moritz Strähle (Abgeordneter Physiklehrer an der Fakultät für Physik der LMU), Prof. Dr. Bernhard Mayer (Professor für Atmosphärenphysik, Fakultät für Physik der LMU) und Prof. Dr. Harald Lesch (Professor für Astrophysik, Universitäts-Sternwarte, Fakultät für Physik der LMU).

Die LMU betreibt einen eigenen YouTube-Kanal, um die Experimente des „Klimakoffers“ zu erklären. Ebenso hat Herr Prof. Lesch dieses „Klima-Katastrophen-Experiment“ auch in der ZDF-Serie „Ein Fall für Lesch & Steffens – Die Wahrheit über die Lüge“ vom 18.10.2020 gezeigt (ab Min. 41). Er spielt dort also wieder einmal „Faktenchecker“.

Verifikation des Experiments durch unabhängige Fachleute

Die Wissenschaftlergruppe ICR (Independent Climate Research) hat sich unter anderen Aktivitäten zur Aufgabe gesetzt – diese sog. Klima-Katastrophen Experimente zu überprüfen. Diese Verifikation/Falsifikation des „Lesch“ Experiments wurde hauptsächlich vom Datenanalysten Axel Jacquin und dem Physiker Ernst Hammel durchgeführt.

Ein Fan der ICR aus Deutschland übermittelte dankenswerterweise den original Klimakoffer. Ein spannendes Detail daran ist auch, dass dieser von der Caritas in Deutschland gefertigt wird.

Sie können die Erkenntnisse der ICR entweder nachfolgend in diesem YouTube-Video sehen – oder Sie lesen die Textversion in diesem Artikel.

Vor Beginn der Überprüfung dieses Lesch/LMU Experiments fallen sofort diese Aspekte und Kritikpunkte auf:

  • Die Wärmelampe strahlt bei ca. 300°C, die Erde bei -90 bis + 90°C – dies wird nicht klar kommuniziert
  • Zu kurze Aufheizzeiten werden vorgegeben, daher bildet sich kein stationärer Zustand (kein thermisches Gleichgewicht) aus
  • Verwendung einer Kupfer-Dose (ZDF durch Prof. Lesch) & einer Papp-Dose (LMU), also keine Einheitlichkeit
  • Keine Kontrollversuche mit Vergleichs-Gasen (z.B. Argon) werden vorgenommen
  • Eine unnatürlich hohe Konzentration von CO2 (ca. 20 % statt 0,08 %) ohne klare Darlegung des möglichen Effekts
  • Keine Abschattung des Fleischthermometers
  • Keine Konvektion (Luftumwälzung) in der Dose, daher Schichtung der Gase

Weiters fällt im Besonderen im ZDF-Video bereits im Titel auf, dass von Prof. Lesch durch die Verwendung einschlägiger Sprache Framing betrieben wird (Klimaleugner, Verschwörungstheoretiker …) – ideologische Aussagen haben bei einem physikalischen Experiment aber nichts zu suchen. Dies dokumentiert, dass der eigentliche Zweck des Experiments Propaganda für das „CO2 bedingte Klima-Katastrophen-Narrativ“ ist – und keine objektive Auseinandersetzung mit physikalischen Realitäten bezweckt wird.

Das wissenschaftliche Team der ICR beschreibt ihre Versuche wie folgt:

Vorab haben wir mit einer Infrarot-Kamera die unterschiedlichen thermischen Situationen der beiden Dosen (Kupfer und Pappe) untersucht:

Ein Bild, das Text, Screenshot, Kreis enthält. Automatisch generierte Beschreibung

Die Kupfer-Dose (links) schafft eine thermisch deutlich massivere Umgebung für den Gasraum, sodass noch höhere Gas-Temperaturen zu erwarten sind (Lesch – ZDF). Wir haben in weiterer Folge daher – um diesen „Show-Effekt nicht zu berücksichtigen“ – die Original LMU Papp-Dose für unsere weiteren Untersuchungen eingesetzt.

Wir haben das LMU Originalexperiment in folgenden Punkten adaptiert, um saubere Messwerte zu erhalten:

  • Anstatt eines Fleischthermometers haben wir einen Elitech Datenlogger verwendet, um die Temperaturmessungen im Doseninneren exakt erfassen und auswerten zu können
  • Wir haben die Möglichkeit für die Abschattung des Temperaturmessfühlers geschaffen, um die direkte Bestrahlung des Messfühlers zu vermeiden. Versuche mit und ohne Abschattung wurden vorgenommen.
  • Einbau eines Mikro Ventilator in den Gasraum, um Konvektion im Gasraum zu ermöglichen, Versuche mit und ohne Konvektion wurden durchgeführt.
  • Viel längere Aufheizzeiten und Beobachtungszeiten des Experiments wurden vorgenommen.
  • Die Messung der Umgebungstemperatur wurde ebenfalls vorgenommen, um diese Außeneinflüsse zu berücksichtigen.

Der Ablauf des Klima-Experiments A5

Die Lampe wird eingeschaltet, der Gasraum in der Dose erwärmt sich daraufhin für ca. 20 min, danach wird das Gas gegen ein Gas aus einer endothermen Reaktion ausgetauscht. Der Gasraum enthält dann neben der Luft ca. 20 % CO2 und Wasserdampf. Nach einer kurzen Abkühlung (endotherme Reaktion – Einleitung dieses Gases) erfolgt eine weitere Erwärmung des Gasraumes – hier die Original-Messkurve der LMU sowie das Originalfoto der LMU Apparatu Ein Bild, das Text, Reihe, Diagramm, Zahl enthält. Automatisch generierte Beschreibung Ein Bild, das Maschine, Zylinder, Im Haus enthält. Automatisch generierte Beschreibung

Hier wird sofort ein Fehler seitens der LMU ersichtlich:

Das Diagramm soll laut LMU die Absorption von IR-Strahlung durch CO2 zeigen – diese Grafik zeigt jedoch KEINE Absorptionskurve, sondern eine AUFHEIZKURVE des Gases.

Ein weiterer Fehler vorab:

Die beim LMU-Experiment verwendete 60W-Lampe hat eine Abstrahltemperatur von ca. 300 °C, strahlt also IR-Strahlung hauptsächlich im Wellenlängenbereich von 5 Mikrometern ab. Dieser Bereich ist auf unserem Planeten für die IR Wirkung von CO2NICHT relevant.

Ein Bild, das Text, Screenshot, Diagramm, Schrift enthält. Automatisch generierte Beschreibung

Jedoch kann bei dieser Lampe und bei dieser Versuchsanordnung die IR-Rückstrahlung von CO2 (kaum) und N2O (sehr wohl) im Wellenlängenbereich von 4 bis 5 Mikrometern gezeigt werden, aber eben NICHT in der – für unsere reale Atmosphäre relevanten – 13 bis 16 Mikrometer CO2 Absorptionsbande.

Wie bereits oben dargelegt, ist ein weiterer schwerer Konzeptfehler dieses experimentellen Aufbaus, dass kein Kontrollgas und kein Kontrollexperiment vorgenommen wird. Wir haben als Kontrollgas Argon verwendet, dieses Gas ist NICHT IR aktiv. Wie man aus beiliegenden IR Bildern ersehen kann, findet hier KEINE IR Absorption statt, weder mit – als auch ohne – erzwungener Konvektion.

Ein Bild, das Text, Screenshot enthält. Automatisch generierte Beschreibung

Sehr wohl ist aber die Absorption und Rückstrahlung vom IR aktiven Gas CO2 in der Wärmebildkamera ersichtlich:

Ein Bild, das Text, Screenshot, Kreis enthält. Automatisch generierte Beschreibung

Es ist zu sehen, dass durch das Einleiten von CO2 in die Dose die IR Kamera eine Reduktion der Strahlungstemperatur der Lampe um 8,6°C messen kann, was auf die Absorption und Re-Emission (Rückstrahlung) durch das CO2 zurückzuführen ist. Diese Reduktion der Strahlungstemperatur ist bei Verwendung des Kontrollgases Argon NICHT ersichtlich (siehe oben).

Nun fällt bei den Messungen Folgendes auf:

Wird keine erzwungene Konvektion in der Dose geschaffen, entsteht tatsächlich ein Temperaturanstieg bei Verwendung von CO2 + H2O (Gas aus der endothermen Reaktion), von ca. 0,1°C als auch ein Temperaturanstieg bei Verwendung von reinem CO2(0,4°C) und reinem N2O (0,7°C) gegenüber den Kontrollgasen Luft und Argon.

Somit scheinen auf den ersten Blick Hr. Prof. Lesch und die LMU mit ihrer Argumentationskette recht zu haben.

Wiederholt man nun alle diese Experimente MIT erzwungener Konvektion in der Dose, zeigt sich:

Die Gase CO2 + H2O (Gas aus der endothermen Reaktion), reines CO2 und Argon erwärmen sich in etwa gleich. Ein die Temperatur erhöhender Effekt aus der Absorption und Re-Emission von Strahlung ist nun hier nicht mehr ersichtlich – nur mehr beim Gas N2O.

Die Gründe dafür sind:

  • wenn keine Konvektion in der Dose erzwungen wird, entsteht eine Gasschichtung, was zu erheblichen Temperaturdifferenzen innerhalb der Dose führt. Die Konvektion verhindert dies.
  • Die Absorption von IR Strahlung durch CO2 hat bei dieser Versuchsanordnung keine messbare Auswirkung auf die Temperaturerhöhung der Gase.

Die Erwärmung des NICHT Treibhausgases Argon ist bei dieser Versuchsanordnung genauso hoch (innerhalb der Messtoleranz der Messanordnung) wie die Erwärmung des Treibhausgases CO2.

Dieses Experiment kann also KEINE Temperaturerhöhung trotz hoher CO2-Konzentration in der Messanordnung – gegenüber dem Nicht-Treibhausgas Argon zeigen!

Die Erwärmung des NICHT Treibhausgases Argon ist bei dieser Versuchsanordnung genauso hoch (innerhalb der Messtoleranz der Messanordnung) wie die Erwärmung des Treibhausgases CO2.

Ein Bild, das Text, Zahl, Reihe, Schrift enthält. Automatisch generierte Beschreibung

Die anderen Eigenschaften der Gase wie WärmeleitfähigkeitWärmekapazitätspezifisches Gewicht spielen die entscheidende Rolle bei der Erwärmung, da die Gasmoleküle Kontakt zur Dosenwand, zur Folie und untereinander haben.

Sehr wohl kann dieses Experiment – wie wir herausgefunden haben – den Treibhauseffekt beim Gas N20 zeigen, was der LMU und dem Hr. Prof. Lesch möglicherweise nicht wichtig war, um gezeigt zu werden.

Dieses Experiment könnte wirklich interessante physikalische Eigenschaften unterschiedlicher Gase zeigen – durch die krampfhafte Fokussierung auf das vermeintlich „schlimme“ CO2 wird diese eigentlich sehr pfiffige Versuchsanordnung für Klima-Katastrophen Propagandazwecke MISSBRAUCHT.

Zusammenfassung:

  1. Das Experiment ist geeignet, die Absorption von IR-Strahlung durch CO₂ und durch N2O in der Nähe der Absorptionsbande von 4 bis 5 Mikrometer Wellenlänge zu zeigen, nicht jedoch im 15 Mikrometer Band, welches für unseren Planeten relevant ist.
  2. Das Experiment zeigt einen zusätzlichen Erwärmungseffekt von CO2 gegenüber LUFT und Argon nur dann, wenn keine Konvektion in der Dose und keine Abschattung des Temperatur-Sensors vorgenommen wird.
    Die Gründe für die Erwärmung sind die folgenden Eigenschaften der Gase CO2, Luft und Argon:
    * Wärmeleitfähigkeit
    * spez. Gewicht
    * WärmespeicherkapazitätDas Experiment zeigt keine messbare Erwärmung durch die IR Absorption bei CO(aber bei N2O): Sehr wohl ist eine Absorption bei COaufgrund der hohen CO₂-Konzentration (mittels IR Kamera) feststellbar
  3. Dem LMU-Experiment fehlen Kontrollexperimente, z.B. mit dem nicht-infrarot-aktiven Edelgas Argon.
  4. Beim LMU-Experiment wird der Einfluss der Umgebungstemperatur nicht mit berücksichtigt.
  5. Beim LMU-Experiment ist die Aufheizphase zu kurz (keine stationären Zustände)
  6. Das LMU-Experiment sieht keine Abschattung des Temperatursensors vor.
  7. Das LMU-Experiment sieht keine Konvektion innerhalb der Dose vor (Wärmestau).
  8. Es handelt sich bei diesem von der LMU konzipierten Laborversuch um eine Extrem-Konstellation, die in der Natur auf der Erde nicht vorkommt.

Bei diesem Experiment erhöht sich die Temperatur in der Dose (Erdatmosphäre) MIT Konvektion sowohl mit CO2 als auch mit ARGON (Kontrollgas) im gleichen Ausmaß -> somit kann dieses Experiment die Erhöhung der Temperatur der Erdatmosphäre wegen CO2 NICHT zeigen!

Das Lesch-Experiment ist irreführend und indoktrinierend

Das Experiment (Aktivität Nr. 5) aus dem LMU-Klimakoffer ist irreführend und stellt eine Indoktrination der Schülerinnen und Schüler dar.

Es verstößt gegen das „Überwältigungsverbot“ aus dem „Вeutelsbacher Konsens“:

  1. Es ist nicht erlaubt, den Schüler – mit welchen Mitteln auch immer – im Sinne erwünschter Meinungen zu überrumpeln und damit an der „Gewinnung eines selbständigen Urteils“ zu hindern. Hier genau verläuft nämlich die Grenze zwischen Politischer Bildung und Indoktrination. Indoktrination aber ist unvereinbar mit der Rolle des Lehrers in einer demokratischen Gesellschaft und der – rundum akzeptierten – Zielvorstellung von der Mündigkeit des Schülers.
  2. Zweitens, was in Wissenschaft und Politik kontrovers ist, muss auch im Unterricht kontrovers sein.
  3. Drittens, Schüler müssen in die Lage versetzt werden, eine politische Situation und eigene Interessen zu analysieren.

Quellen:  https://www.lpb-bw.de/beutelsbacher-konsens
als auch: https://www.parlament.gv.at/fachinfos/rlw/Welche-Bedeutung-hat-politische-Bildung-fuer-eine-Demokratie

Wie durch Lesch nun auch Lehrer indoktriniert werden

Prof. Lesch und Dr. Scorza sind nun auch unterwegs, um Lehrer zu indoktrinieren. In diesem Vortrag finden sich reihenweise bereits widerlegte Fälschungen (Hockeystick), Täuschungen (das CO₂-Observatorium auf einem aktiven Vulkan) und Taschenspieler-Tricks. Am Ende wird Werbung für den LMU-Klimakoffer gemacht, dessen CO₂-Experiment oben klar widerlegt werden konnte.

Der Beitrag erschien zuerst bei Report24 hier

 




EXPLOSIV – Hochrangiger Mitarbeiter der Kennedy-Administration: „Erdöl ist kein fossiler Brennstoff, es ist die zweithäufigste Flüssigkeit auf der Erde!“

In einem Interview aus dem Jahr 1994 sprach L. Fletcher Prouty darüber, was Erdöl ist. Es ist nicht das, was wir denken. Es handelt sich nicht um einen fossilen Brennstoff. Und es ist die am zweithäufigsten vorkommende Flüssigkeit auf der Erde, sagte er.

von Legi-Team

L. Fletcher Prouty war unter US-Präsident John F. Kennedy Chief of Special Operations der Joint Chiefs of Staff. Als ehemaliger Oberst der US-Luftwaffe schied er aus dem Militärdienst aus, um Bankmanager zu werden, und wurde in der Folge zu einem Kritiker der US-Außenpolitik, insbesondere der verdeckten Aktivitäten der CIA, über die er umfangreiche Insiderkenntnisse besaß. Er starb im Jahr 2001 im Alter von 84 Jahren.

Während des Zweiten Weltkriegs diente Colonel Pouty als Panzerkommandant der Armee. Später trat er in die United States Air Force („USAAF“) ein und wurde 1943 persönlicher Pilot von General Omar Bradley. Im selben Jahr flog er Chiang Kai-shek zur Konferenz von Teheran.

Prouty arbeitete auch für das Office of Strategic Services („OSS“). Im Jahr 1945 diente er auf Okinawa und war an der Beförderung der Leibwache von General Douglas MacArthur nach Tokio beteiligt. 1946 wurde Prouty von der US-Armee der Yale University zugewiesen. 1950 baute er das Luftverteidigungskommando auf und war während des Koreakriegs in Japan stationiert, wo er militärischer Leiter des internationalen Flughafens Tokio war.

1955 wurde Prouty mit der Koordinierung von Operationen zwischen der USAAF und der Central Intelligence Agency („CIA“) beauftragt. In den folgenden neun Jahren arbeitete er für das Pentagon. Er war Briefing Officer für den Verteidigungsminister (1960-61), Vorsitzender der Joint Chiefs of Staff und Chef der Special Operations (1962-63).

Colonel Prouty schied 1964 aus der USAAF aus und wurde mit der Joint Chiefs of Staff Commendation Medal ausgezeichnet. Später arbeitete er für die General Aircraft Corporation (1964-65) und die First National Bank (1965-68). Außerdem war er leitender Direktor einer staatlichen und militärischen Marketingorganisation.

Weitere Informationen über Colonel Prouty finden Sie unter L. Fletcher Prouty (Spartacus Educational) und L. Fletcher Prouty (Wikipedia).

Während eines Interviews im Jahr 1994 fragte Bruce Kanier Oberst Prouty, was er meinte, als er in einem Vortrag sagte, Erdöl sei kein fossiler Brennstoff, sondern ein Mineral. Colonel Prouty antwortete:

„Als sich Öl von einem Schmiermittel zu einem Kraftstoff entwickelte, wurde es wertvoll. Rockefeller war zu dieser Zeit zufällig der klügste Mann in der Branche, aber er verdiente das meiste Geld, oder zumindest einen großen Teil davon, mit dem Transport des Erdöls und mit dessen Verkauf.

„Einen Preis für Erdöl festzulegen, ist wie einen Preis für einen Eimer Wasser festzulegen, ohne Anfangskosten, was sowieso im Boden ist. Damals wurde ein Teil des Erdöls im Tagebau gefördert, man ging nicht in die Tiefe. Um also den Preis in die Höhe zu treiben, kam man auf die Idee, das Öl als knapp erscheinen zu lassen.

„1892 gab es in Genf eine Tagung von Wissenschaftlern, die festlegen sollten, was organische Stoffe sind. Nun, die Definition von organisch ist eine Substanz mit Wasserstoff, Sauerstoff und Kohlenstoff. Normalerweise ist es eine lebende Substanz … Auf diesem Genfer Kongress nutzte Rockefeller die Gelegenheit, einige Wissenschaftler zu schicken, die sagten: ‚Öl, Petroleum ist Wasserstoff, Sauerstoff und Kohlenstoff, also muss es aus der Verrottung von ehemals lebender Materie stammen‘.

„Als der wissenschaftliche Kongress vorbei war, definierten sie Öl als Rückstand von ehemals lebender Materie. Nun, das macht es zu einem ‚fossilen Brennstoff‘.

„Es wurde noch nie ein Fossil, ein echtes Fossil, unterhalb von sechzehntausend Fuß gefunden … Wir bohren nach Öl in dreißigtausend, dreiunddreißigtausend, achtundzwanzigtausend, jeden Tag in der Woche. Damit schließen wir aus, dass es sich um fossile Brennstoffe handelt. Man nennt es fossile Brennstoffe, damit die Öffentlichkeit das Gefühl hat, dass es sich um ein Gut handelt, das zur Neige geht und erschöpft wird.

„Wenn man die weltweiten Ölvorräte kennt, weiß man, dass sie noch lange nicht zur Neige gehen werden. Es ist die am zweithäufigsten vorkommende Flüssigkeit auf der Erde“.

Jahrelang, so erklärte Oberst Prouty, predigten sie in den höchsten Ämtern der USA die Propaganda, Öl sei ein fossiler Brennstoff, der zur Neige gehen würde. „Das Ziel war, wie Kissinger es selbst formulierte, als er das Wort ergriff, einen Weltmarktpreis für Öl zu schaffen. Mit anderen Worten: nicht 30 Cent pro Gallone hier und 90 Cent pro Gallone dort, sondern einen Weltpreis. Das ist ihr Ziel. Und das versuchen sie auch mit Weizen und allem anderen“, sagte er.

Wir haben das Video unten eingebettet und beginnen mit dem 8-minütigen Abschnitt, in dem Colonel Prouty über Öl spricht.

Bruce Kanier interviewt Oberst Fletcher Prouty, 12. Oktober 1994 (Disc 1 von 2) (2 Stunden)

Sollte das obige Video von YouTube entfernt werden, können Sie sich HIER einen Ausschnitt davon auf Bitchute ansehen.

Für diejenigen, die daran interessiert sind, mehr von Colonel Prouty zu diesem Thema zu lesen: Laut der Website The Col. L Fletcher Prouty Reference Site beantwortete Colonel Prouty „zu Lebzeiten E-Mails von dieser Website“ und diese Antworten und Kommentare sind auf der Website veröffentlicht. Sie enthält einen „Kommentar“ mit dem Titel „Kommentar für Juni – Öl“ und unter dem Website-Abschnitt mit dem Titel „Briefe des Monats“ einen E-Mail-Austausch zwischen verschiedenen Personen und Colonel Prouty über die „Ursprünge des Öls“.

QuelleThe Expose

Der Beitrag erschien zuerst bei Legitim.ch hier

Zu diesem Thema zwei weitere Berichte hier

und hier

 




Die Entzauberung der «Zukunftstechnologien»

Der Verkauf von Elektrofahrzeugen bricht ein. Der Absatz von Wärmepumpen stockt. Und nun noch dies: Auch das Geschäft mit Photovoltaikanlagen harzt. Offensichtlich steht die Bevölkerung den hochgelobten Technologien zur Dekarbonisierung kritischer gegenüber als gedacht. 

Von Peter Panther

Eine Umfrage des Fachblatts «pv magazine» unter 500 deutschen Solarinstallateuren lässt aufhorchen: Etwas mehr als zwei Drittel von ihnen haben angegeben, in den letzten Monaten einen «Einbruch bei den Aufträgen» verzeichnet zu haben. Entsprechend ist rund die Hälfte der Befragten mit dem gegenwärtigen Geschäftsgang unzufrieden. Als Gründe dafür, dass der Absatz von Photovoltaikanlagen harzt, nennen die Solarinstallateure an erster Stelle «allgemeine Verunsicherung» bei den potenziellen Käufern, gefolgt von hohen Zinsen und Inflation.

Ein Blick in die Statistik bestätigt die Umfrageresultate: Zwar ist der Markt für PV-Dachanlagen im letzten Jahr insgesamt nochmals kräftig gestiegen – um 85 Prozent. Doch im zweiten Halbjahr gingen die Verkäufe rapide nach unten: Wurde im Juni deutschlandweit die Rekordzahl von 111’684 Anlagen abgesetzt, waren es im Dezember noch 40’688 Stück – ein Rückgang um 64 Prozent. Auch wenn man saisonale Schwankungen berücksichtigt, muss man von einem regelrechten Absturz sprechen.

Die Solarbranche ist kein Einzelfall

Man reibt sich die Augen: Lange Zeit ist die Zahl der neumontierten Solaranlagen auf Dächern steil nach oben gegangen. Das war gemäss den Promotoren der Energiewende auch notwendig, stellt doch die Photovoltaik eines der Standbeine der Erneuerbare-Energie-Welt dar, die angeblich unaufhaltsam ist. Auch wenn offen ist, ob es sich beim erwähnten Einbruch um eine Trendwende oder nur um eine Verschnaufpause handelt: Erwartet hat die Rückwärtsentwicklung der letzten Monate wohl kaum jemand.

Die Solarbranche ist kein Einzelfall. Ähnliches zeigt sich beim Markt für Wärmepumpen, und zwar europaweit. Der Europäische Wärmepumpen-Verband musste im Februar bekannt geben, dass letztes Jahr in 14 einbezogenen Ländern des Kontinents der Verkauf von Wärmepumpen um insgesamt fünf Prozent zurückgegangen ist. Diese 14 Länder, darunter auch Deutschland, decken rund 90 Prozent des Geschäfts ab.

Besonders bitter: Die Absatzzahlen waren in jedem Quartal von 2023 rückläufig – besonders stark im letzten. «Die Wärmepumpen-Branche ist mit stürmischem Wetter konfrontiert, und es braucht alle Hände an Deck», gab Thomas Nowak, Generalsekretär der European Heat Pump Association, bekannt.

Auch hier: Zuvor kannte das Geschäft mit Wärmepumpen jahrelang nur eine Richtung, nämlich steil nach oben. Und ebenfalls war dieser Aufwärtstrend mit Blick auf die angestrebte Dekarbonisierung eine Notwendigkeit, gelten Wärmepumpen doch als die Zukunftstechnologie im Gebäudebereich schlechthin.

Bei der Elektromobilität sieht es zappenduster aus

Die vorgebrachten Gründe für den Rückschlag bei den Wärmepumpen gleichen denen beim Solarmarkt: Hohe Zinsen hätten die möglichen Käufer abgeschreckt. Zudem würden wechselnde Fördermassnahmen zu einer Verunsicherung von Investoren und Kunden führen. Beim europäischen Verband kritisiert man vor allem, dass die EU-Kommission einen Aktionsplan für die Subventionierung von Wärmepumpen auf unbestimmte Zeit verschoben hat.

Ohne einen weiteren steilen Anstieg des Absatzes von Wärmepumpen aber wird die Energiewende in Europa scheitern. Zu Ende sein wird sie auch, wenn sich die Elektromobilität nicht durchsetzt. Und hier sieht es zappenduster aus: Im vergangenen März wurden in Deutschland gerade mal 31’384 E-Fahrzeuge neu in den Verkehr gesetzt. Das ist ein Rückgang von 29 Prozent gegenüber dem März des letzten Jahres. Der Marktanteil der Elektromobilität ist damit auf magere 12 Prozent gefallen.

Ähnlich düster sieht es in anderen Staaten aus: In Grossbritannien harzt der Verkauf von Elektromobilen so stark, dass der «Daily Telegraph» kurzum titelte: «Niemand will ein elektrisches Auto.» Und in den USA fährt der Markt für E-Mobile laut der Dienstleistungsfirma Cox Automotive gerade in ein «Tal der Enttäuschung».

Es macht sich Ernüchterung breit

Offensichtlich haben elektrische Fahrzeuge für viele potenzielle Käufer noch immer zu viele Nachteile, als dass sie sich für sie entscheiden: Die Preise sind hoch und die Reichweite ist begrenzt. Und vielerorts fehlt es an Ladestationen. In Deutschland wirkt sich zudem aus, dass die Ampel-Regierung im letzten Dezember die Kaufprämien für E-Fahrzeuge wegen der Budgetprobleme kurzerhand gestrichen hat.

Auch die Aussichten sind schlecht: Laut dem Autoexperten Ferdinand Dudenhöfer könnte der Anteil der Elektromobilität bei den Neuzulassungen in Deutschland auf das ganze Jahr 2024 gesehen von zuvor 18 auf 11 Prozent zurückgehen. Man muss von einem eigentlichen Debakel für die E-Branche sprechen. Bei den Wärmepumpen hat der Zentralverband Sanitär Heizung Klima schon im letzten Sommer gewarnt, dass der deutsche Markt für diese Geräte 2024 nur noch halb so gross sein könnte verglichen mit 2022. Das entspricht nicht den zuvor geschürten Erwartungen.

Allmählich macht sich Ernüchterung breit: Zentrale «Zukunftstechnologien» wie E-Mobilität, Wärmepumpen und jetzt möglicherweise auch Photovoltaik schwächeln. Jahrelang lobten Branchenvertreter und Politiker deren vermeintliche Vorteile in den höchsten Tönen. Doch die Kundschaft geht auf Distanz: Aus ihrer Sicht sind bewährte Technologien wie Ölheizungen oder Verbrennungsmotoren – obwohl als klimaschädlich verschrien – offenbar immer noch sehr attraktiv. Werden gar Fördergelder für die angeblichen Zukunftstechnologien gekürzt, ist es erst recht vorbei mit dem Zuspruch.

Am Ende wird nur Zwang weiterhelfen

Für die angestrebte Dekarbonisierung sind solche Nachrichten verheerend. Denn wenn das Netto-Null-Ziel 2050 oder noch früher erreicht werden soll, wäre es zwingend, dass die Absatzzahlen von Wärmepumpen, PV-Anlagen und Elektrofahrzeugen nun weiter steil nach oben gehen – und das für viele Jahre. Wenn das Geschäft aber stagniert oder sogar einbricht, können die gesetzten Fristen mit Sicherheit nicht eingehalten werden.

Doch man ahnt, wie die herbeigeschriebene Energiewende am Ende doch noch durchgesetzt werden wird: mit Zwang. Also mit einem Verbot von Diesel- und Benzinfahrzeugen, einem Verbot von Öl- und Gasheizungen und einer Pflicht zur Installation von Solaranlagen. Entsprechende Vorschriften sind im In- und Ausland entweder schon in Kraft oder befinden sich im politischen Prozess. Denn es gilt: Die neue Energiewelt muss kommen – koste es, was es wolle! Und sind die Bürger nicht willig, so muss man sie zu ihrem Glück zwingen.

 




Windenergie ist unbezahlbarer Wahnsinn!

Unsere Vorfahren hatten bis zum Ende des 18. Jahrhunderts für ihre Energieversorgung nur die Wahl Holz, oder Dung, oder Kohle aus Holz zu verbrennen. Der EROI betrug dabei 3 bis 5. Mit der Einführung von Kohle änderte sich das und der EROI stieg auf 20. Das bedeutet das Ende der Adelsherrschaft, bei denen 1 % der Bevölkerung reich und der Rest arm bis bitterarm war.

Plötzlich gab es eine Bürgergesellschaft.

Mit der Einführung von Gas und Öl stieg dieser EROI sogar auf 30 an. Was für viel, viel mehr Menschen mehr Wohlstand bedeutete, aber immer unter der Gesellschaftsordnung des Kapitalismus. Mit der Einführung der Kernenergie stieg dieser EROI auf 50 bis 100. Mithin eine der Energieversorgung, die das Energieproblem dieses Jahrhunderts mithelfen kann zu lösen.

Mit der Solar- und Windkraft hingehen befinden wir uns wieder bei 3-5. Ein unendlicher Rückschritt, hin zur Verarmung der Bevölkerung. Der folgend Beitrag des Physikers Dieter Böhme schreibt in einer Stellungnahme zum zum Entwurf des 2. Sachlichen Teilplans Windenergie – Mittelthüringen an das Thüringer Landesverwaltungsamt Referat 300 Regionale Planungsstelle Mittelthüringen, und erklärt darin, warum das so ist

Von Dieter Böhme

Thüringer Landesverwaltungsamt

Referat 300 Regionale Planungsstelle Mittelthüringen

Jorge- Semprún-Platz 4

99423 Weimar

Per Mail an: teilplan.wind@tlvwa.thueringen.de

 

Stellungnahme zum Entwurf des 2. Sachlichen Teilplans Windenergie – Mittelthüringen

Sehr geehrte Damen und Herren,

es gibt viele gute Gründe den weiteren Ausbau der Windkraft abzulehnen. Einerseits sind dies die exorbitanten Schäden an der Umwelt und für die Gesundheit der Menschen durch die Windkraft sowie andererseits die Naturgesetze der Physik, nach denen ein Industrieland wie Deutschland nicht mit Strom und Primärenergie (Strom, Verkehr, Heizwärme, Industriewärme) aus volatilen Stromerzeugern versorgt werden kann. Und auch nicht aus einem „Mix“ der sogenannten Erneuerbaren Energien. Dies ist übrigens ein Euphemismus, denn Energie ist nicht „erneuerbar“, sie kann nur von einer Form in eine andere Form überführt werden. Und dies immer unter spezifischen Wirkungsgrad-Verlusten.

Mit Bezug auf die Flächenplanung für Windkraft zeigen sich krassen Differenzen des 2,2 % – Zieles und staatlicher Studien mit Leistungsdichten von 20 – 30 W/m2 die im Gegensatz zur ermittelten Realität von etwa 2 – 0,5 W/m2 stehen (S. 4: MDR, MPI). Dies sollten Fachleute für Flächenplanung klären, bevor man beginnt, bislang unberührte Natur für Windkraft zu verplanen. Bis zur Klärung wird ein Moratorium für jegliche Planung und Realisierung von Windkraft vorgeschlagen.

Abstract – die unbequeme Wahrheit zusammengefasst

Mit Windkraft kann pro Quadratmeter Rotorfläche etwa eine Glühbirne (ca. 40 Watt) rund um die Uhr betrieben werden, falls man den Strom denn speichern könnte, was angesichts der schieren Dimension nicht geht. Denn ein Tag Stromerzeugung entspricht etwa der Kapazität von 200 Pumpspeichern Goldisthal oder 17 Mio. E-Autos mit großem 100-kWhAkku. Dunkelflauten (ohne Sonnenschein und Wind) können Wochen dauern. Dies ist umso gravierender, als die gesicherte Leistung der Windkraft nahe NULL ist. Die WasserstoffTechnologie zur Speicherung von Strom ist eine Illusion. Sie wandelt wertvollen, universell einsetzbaren Strom in minderwertigere chemische Bindungsenergie (des H2-Moleküls), die im großtechnischen Maßstab über Wärmekraftmaschinen mit niedrigem Wirkungsgrad wieder in elektrische Energie gewandelt werden muss. Dies verteuert den „gespeicherten“ Strom unter großen Verlusten mindestens um den Faktor 5. Die Ursache für die geringe

Leistung der Windkraft pro Quadratmeter Rotorfläche ist die geringe Dichte der Luft. Die Ursache für die hohe Volatilität ist die Abhängigkeit der Windleistung von der dritten Potenz der Windgeschwindigkeit. Die durchschnittliche Leistungsdichte der Windkraft, quer über die Verteilung der Windgeschwindigkeiten liegt in der Größenordnung etwa 40 W/m2

Rotorfläche. Dies bedingt etwa 1 Mrd. Quadratmeter Rotorfläche, für 40 GW Leistung (etwas über die Hälfte der max. Stromlast) oder ca. 5 Mrd. Quadratmeter Rotorfläche für die Hälfte einer Energiewende, da Strom nur etwa 20 % der Primärenergie ausmacht. Diese geringe Leistungsdichte verursacht den gigantischen Flächenbedarf der Windkraft in der Landschaft, und macht unsere Kulturlandschaft zu einem Elektrizitätswerk. Daran ändern auch immer größere Windräder nichts, denn sie brauchen nicht nur größere Abstände, sondern sie „klauen sich“ auch in immer größeren Höhen gegenseitig den Wind. Windkraft kannibalisiert sich mit zunehmendem Ausbau quasi selbst. Denn die Limitierung für den großflächigen Ausbau der Windkraft ist die, der Atmosphäre max. entnehmbare Leistung und diese tendiert von 2 W/m2 zu 0,5 W/m2 Landschaftsfläche. Bereits heute wird der Atmosphäre über Deutschland durch Windkraft eine Energie entnommen, die dem Äquivalent von etwa 7.900 Hiroshima-Bomben entspricht. Dies führt zu einer Beeinflussung des Mikroklimas und zu einer Austrocknung und Erwärmung der Landschaft im Lee von Windparks. Da der physikalische Wirkungsgrad von Windrädern (0,48 für Dreiflügler) de facto (bei der jeweils häufigsten Windgeschwindigkeit) erreicht ist, erübrigt sich eine Diskussion zum angeblich großen Entwicklungspotential von Windrädern. Diese können nur noch größer werden, was aber kaum etwas an der Leitungsdichte ändert. All dies ist physikalisch bestimmt und kann durch keine ingenieurtechnische Leistung überboten werden. Das Perpetuum Mobile kann durch keinen Koalitionsvertag, keinen Parlamentsbeschluss und keinen Gerichtsentscheid herbeigeführt werden. Wohl aber ein riesiges wirtschaftliches und gesellschaftliches Desaster, wenn eklatant gegen Naturgesetze verstoßen wird. Dabei spielt es keine Rolle, ob dies mit gutem Vorsatz, aus Unkenntnis oder aus Absicht geschieht. Keiner der Verantwortlichen möge sagen „Wenn ich das nur gewusst hätte“. Hier steht es nachvollziehbar zur Diskussion gestellt.

 

Windkraft ist ein Kampf gegen die Physik – die Herleitung des „Unsagbaren“ Die elektrische Leistung eines Windrades pro Quadratmeter Rotorfläche (Leistungsdichte) wird durch die Dichte der Luft und die dritte Potenz der Windgeschwindigkeit bestimmt sowie durch den max. physikalischen Wirkungsgrad begrenzt.

Die Formel lautet: Pd = ½ ρ v3 h

(Pd – Leistungsdichte, ρ – Dichte der Luft, v – Windgeschwindigkeit, h – Wirkungsgrad) Der max. physikalische Wirkungsgrad h beträgt 0,48 für Dreiflügler. Physik der Windturbine – Uni Leipzig, Physikalisches Institut https://home.uni-leipzig.de/energy/energie-grundlagen/15.html

Die geringe Dichte der Luft (ρ =1.225 kg/m3 bei 15 C in Meereshöhe) stellt die grundsätzliche physikalische Limitierung der Windkraft dar. Sie ist 816-fach geringer als die Dichte von Wasser, wobei der max. Wirkungsgrad der Windkraft etwa nur halb so groß ist, wie der einer Wasserturbine. Die geringe Dichte der Luft ist der Grund für die riesige Anzahl von Windrädern, was in der Konsequenz Milliarden Quadratmeter Rotorfläche bedingt.

Die praktischen Konsequenzen dieser einfachen physikalischen Zusammenhänge sind: Bei einer üblichen Nennwindgeschwindigkeit von 11 m/s (Beginn Windstärke 6) für Schwachwindanlagen (für das Binnenland) beträgt die auf den Rotor pro Quadratmeter aufgebrachte Windleistung 815 W/m2. Davon können (bei Wirkungsgrad 0,48) max. 391 W/m2 in elektrische Leistung umgesetzt werden. Dies ist bei Schwachwindanlagen aber nicht der Fall, da deren max. Wirkungsgrad nicht bei 11 m/s, sondern bei der lokal häufigsten Windgeschwindigkeit liegt. Eine Herstellerangabe für die Leistungsdichte einer Schwachwindanlage bei Nennwindgeschwindigkeit von 11 m/s lautet zum Beispiel 199 W/m2.

Datenblatt Siemens SWT-3.15-142 

Der max. Wirkungsgrad ist bei Schwachwindanlagen konstruktiv auf die lokal häufigsten Windgeschwindigkeiten (5 bis 8 m/s) festgelegt. Hierbei können max. elektrische Leistungen zwischen 37 bis 151 W/m2 generiert werden. Dies ist unabhängig von der Größe des Windrades. Weitere Informationen – Windkraft erklärt auf einem Bierdeckel

In Thüringen wird zur Festlegung regionaler Teilflächenziele eine durchschnittliche Mindestwindgeschwindigkeit von ≥ 6,5 m/s in einer Höhe von 150 m über Grund angenommen. Bei dieser Windgeschwindigkeit können bestenfalls 77 W/m2 elektrische Leistung generiert werden. Quelle: Herleitung der regionalen Teilflächenziele zur Umsetzung des

Flächenbeitragswerts gemäß dem Wind-an-Land-Gesetz in Thüringen)

Diese Zahlen machen deutlich, dass, entgegen den möglichen Erwartungen, die Windkraft nur über ein geringes Potential zur Stromversorgung verfügt. Es sind allein die schiere Größe und Anzahl der Windräder sowie die damit einhergehende Nennleistung von Megawatt, die beeindrucken. Die Wenigsten wissen wohl, dass diese nur bei Windstärke sechs aufwärts erreicht wird, und dass bei halbem Wind jeweils nur noch 1/8 der ursprünglichen Windleistung dem Rotor zur Verfügung steht. Damit ist es nicht verfehlt, die Windkraft mit einer Herde dürrer Kühe zu vergleichen, der mittels verbesserter Melkmaschinen immer mehr Milch abgepresst werden soll. Bei verstärktem Ausbau sinkt zudem die Leistungsdichte der Windkraft von 2 bis auf 0,5 W/m2 Landschaftsfläche. Quelle:

MDR: NEUE STUDIE AUS JENA: DAS POTENZIAL UND DIE GRENZEN DER WINDKRAFT 

Fachartikel: Physical limits of wind energy within the atmosphere and its use as renewable energy: From the theoretical basis to practical implications 

Eine Bespielrechnung verdeutlicht die Größenordnung der Konsequenzen. Bei 1 W/m2 wäre auf der gesamten Fläche von Deutschland (ca. 360.000 km2) eine mittlere elektrische Leistung von 360 GW durch Windkraft generierbar. Dies wäre in etwa die Größenordnung für eine Energiewende (mit dem Fünffachen einer Stromlast von 72 GW. Und zwar ohne den Strom speichern zu können. Mit der Wasserstoff-Technologie gingen, aufgrund des geringen Wirkungsgrades, von angenommenen 100 GW mindestens 80 GW in Form von „Abwärme“ verloren. Quelle: Leibnitz-Institut, Dr. Ulf Bosselt Wasserstoff löst keine Energieprobleme 

Bei einer Leistungsdichte von 0,5 W/m2 wären 180 GW generierbar, für eine „halbe“

Energiewende. Damit wäre die Atmosphäre „abgemolken“ und Deutschland stünde voller Windräder. Wohlgemerkt bei einer gesicherten Leistung nahe NULL. Eine andere Rechnung, unter der Annahme einer mittleren Leistungsdichte von 40 W/m2 Rotorfläche, was 1 Mrd. Quadratmeter Rotorfläche für ca. die Hälfte Strom (ca. 40 GW) und 5 Mrd. Quadratmeter Rotorfläche für die Hälfte einer Energiewende bedingt, zeigt das Folgende. Unter der Annahme von Windrädern mit einem Rotordurchmesser von aktuell 170 m (22.700 m2 Rotorfläche, Gesamthöhe ca. 250 m) wären 220.000 Windräder notwendig. Dies wären auf ganz Deutschland verteilt 1,6 km2 pro Windrad oder alle 1,2 km ein Windrad.

Oder unter der Annahme von Windrädern mit einem Rotordurchmesser von 200 m (31.400 m2 Rotorfläche, Gesamthöhe ca. 300 m) wären 160.000 Windräder notwendig. Dies wären auf ganz Deutschland verteilt 2,25 km2 pro Windrad oder alle 1,5 km ein Windrad. Man kann einwenden, dass größere Windräder höhere Windgeschwindigkeiten in größeren Höhen nutzen können und damit die Leistungsdichte pro Quadratmeter Rotorfläche steigt. Dies mag für ein einzelnes Windrad zutreffen, jedoch nicht für den Ausbau der Windkraft, da sich immer größere Windräder in immer größeren Höhen den Wind „klauen“, wie o.g. der MDR gemäß MPI-Jena festgestellt hat. Die Grenzen der Windkraft bestimmt nicht Wunschdenken, sondern die Physik. Bereits jetzt wird der Atmosphäre über Deutschland eine Energie entzogen, die dem Äquivalent von etwa 7.900 Hiroshima-Bomben entspricht. Die Rechnung findet sich hier auf S. 11) Woher kommt der Strom – die Grenzen der Erneuerbaren 

Die gigantische Entnahme kinetischer Energie des Windes bleibt nicht ohne Folgen für die jeweiligen Mikroklimata (und nur solche existieren real). Im Lee von Windparks gibt es eine Austrocknung und Erwärmung der Landschaft, infolge der Verwirbelung von, nachts in Bodennähe befindlichen, kühlen und feuchten Luftschichten. Dies haben Studien der Harvard University unter Beteiligung des MPI für Bio-Geochemie Jena, mittels Messungen durch Satelliten an großen Windparks im Mittleren Westen der USA ergeben. Die Autoren sind übrigens glühende Verfechter der Windkraft. Climatic Impacts of Wind Power 

Windräder können nur Strom erzeugen, wenn sie der strömenden Luft kinetische Energie entziehen, was zu einer Verringerung der Windgeschwindigkeit führt. Physik der Windturbine 

Der beobachte weltweite Effekt der Verringerung der Windgeschwindigkeit wird als „Global terrestrial stilling“ bezeichnet, wobei polit-medial vermieden wird, auch die Windkraft als Ursache zu nennen. Physikalisch ist klar, dass eine Verringerung der Windgeschwindigkeit zu einer Verringerung des Haltedrucks in der Atmosphäre und damit zur Regenbildung führt. Hier meine Berechnungen (s. S. 10) Woher kommt der Strom – die Grenzen der Erneuerbaren 

Das Abregnen der Wolken aus Hauptwindrichtung erfolgt bereits im Lee der Windparks auf See oder an der Küste, der Regen fehlt dann im Binnenland, so dass dort die Landschaft austrocknet. Da dies dem polit-medialen Narrativ vom „Klimaschutz“ entgegensteht, wird Forschung zu diesem Thema nicht gerade wohlwollend mit staatlichem Fördergeld bedacht, um es diplomatisch auszudrücken. Stattdessen ist der Ruf nach dem weiteren Ausbau der

Windkraft zwecks „Klimaschutz“ zu vernehmen, einem Multi-Milliarden-Geschäftsmodell

(ca. ab 59:00) Energie Wende oder Energie Ende

Zusammenfassung zum 2,2 % Ausbauziel

Die genannten Beispiele stehen im krassen Widerspruch zum Ausbauziel von 2,2 % der Landesfläche. Auf die „wundersamen Rechnungen“ des Erfurter Energieministeriums mit Nennleistung hatte ich bereits in meiner Stellungnahme vor einem Jahr hingewiesen. Man kommt in Erfurt mit der Rechnung: 970 WEA * 5 MW = 4.850 MW = 4,85 GW auf eine Leistung, ohne diese in Relation zum realen Nutzungsgrad (Volllaststunden) zu setzten (S. 4). Stellungnahme zur Änderung des Landesentwicklungsprogramms Thüringen Abschnitt 5.2 Energie 

Betrachte man die zugrunde liegenden Studien, so findet man Angaben zu den Leistungsdichten in Bezug auf die Landschaft zwischen 20 – 30 W/m2 (20 – 30 MW/km2). Dies ist, verglichen mit den o.g. neuesten Erkenntnissen des Max-Planck-Instituts für Bio- Geochemie in Jena zusammen mit der Harvard University, resultierend aus Studien an großen Windparks in den USA, etwa um den Faktor 10 bis 60 zu hoch, verglichen mit den durch Studien in den USA ermittelten 2 – 0,5 W/m2. Damit sind die politisch ausgewiesenen Flächenziele um mindestes eine Größenordnung (> Faktor 10) zu niedrig angesetzt. Wer sagt den Bürgern, dass die 2,2 % erst der Anfang sind, nach deren Realisierung man feststellen wird, dass dies alles in keiner Weise ausreicht? Vom Speicherproblem ganz abgesehen.

Es scheint, als ob sich gewisse optimistische Grundannahmen durch sämtliche Studien ziehen, auch weil man sich immer wieder auf eine Studie des Bundesverbandes WindEnergie beruft. Bundesverband Windenergie: Potenzial der Windenergienutzung an Land, Kurzfassung  In dieser Studie wird mit 240.562 Windrädern für 722 GW auf einer Fläche von 28.116 km2 gerechnet, was 8 % der Fläche von Deutschland entspricht und bedeutet, dass auf diesen 28.116 km2 rein rechnerisch alle 340 m ein Windrad steht und sich eine Leistungsdichte von 25,7 W/m2 (25,7 MW/km2) ergibt. Für mich stellt sich dies so dar, als dass der Begriff „installierbare Leistung“ (Nennleistung) mit der real durch ein Windrad generierbaren (mittleren) Leistung gleichgesetzt wird. Doch die reale mittlere Leistung beträgt bei 1.750 Volllaststunden (von 8.760 Jahresstunden) nur 20 % der Nennleistung (installierbaren Leistung). Auch das Erfurter Energieministerium rechnet mit einer Leistungsdichte von 300 kW/ha (30 W/m2 = MW/km2), wie der Antwort auf eine kleine Anfrage von Nadine Hoffmann (AfD-Fraktion) zu entnehmen ist. Damals noch für 1 % der Landesfläche. Aktueller Stand von Windkraftanlagen, Repowering und Windvorranggebieten in Thüringen 

Eine Studie im Auftrag des Thüringer Ministerium für Umwelt, Energie und Naturschutz kommt auf eine Leistungsdichte von 23,4 W/m2.

Leipziger Institut für Energie, Metastudie: Potenziale Vorranggebiete Wind 

Mit Bezug auf die Flächenplanung für Windkraft zeigen sich krassen Differenzen des 2,2 % – Zieles und staatlicher Studien mit Leistungsdichten von 20 – 30 W/m2 die im Gegensatz zur ermittelten Realität von etwa 2 – 0,5 W/m2 stehen (s. o. MDR, MPI). Dies sollten Fachleute für Flächenplanung klären, bevor man beginnt, bislang unberührte Natur für Windkraft zu verplanen. Bis zur Klärung wird ein Moratorium für jegliche Planung und Realisierung von Windkraft vorgeschlagen.

Strom – das sind keine Äpfel oder Einkellerungskartoffeln

Oft hört man aus Politik und Presse, Strom solle regional erzeugt und verbraucht werden und die „Erneuerbaren“ würden schon so und soviel Prozent der Stromversorgung ausmachen. Solche Vorstellungen von Elektrizität scheinen, mit Verlaub, aus der Landwirtschaft oder dem Obstbau zu stammen? Dies ist nicht verwunderlich, da in Sachen Stromversorgung jeder, gemäß seinen Wunschvorstellungen, mitreden darf, unabhängig davon, ob dafür eine hinreichende Qualifikation nachgewiesen werden kann. Dies steht übrigens im krassen Gegensatz zum Meisterbrief, der für die Ausübung eines Handwerks erforderlich ist. Dieser Umstand sei deshalb erwähnt, da unsere Stromversorgung nichts Geringeres ist, als der Lebensnerv der Wirtschaft und des Landes. Eine Woche ohne Strom stürzt eine Gesellschaft ins Chaos und zwei Wochen ohne Strom ins Mittelalter. Aber jeder darf mitreden.

Insofern sollte nicht unerwähnt bleiben, dass, die durch „Erneuerbare“ erzeugte Energie kein Maßstab sein kann. Erstens haben diese Vorfahrt durch Vorrangeinspeisung und zweites ist es egal, ob gestern viel Windstrom erzeugt wurde und morgen viel Solarstrom erzeugt wird, wenn heute weder der Wind weht noch die Sonne scheint. Dann ist die Leistung dieser beiden gleich NULL und die erzeugte Energie auch (Energie = Leistung * Zeit). Auch sollte man sich von der offenbar faszinierenden Vorstellung verabschieden, man könne den Strom von einem bestimmten regionalen Erzeuger zu einem bestimmten Verbraucher liefern. Strom, dies sind elektromagnetische Felder welche Elektronen im Draht bewegen, die einer Potentialdifferenz (Spannung) folgen und nicht dem Wunsch von Kaufleuten. Dies sei nur deshalb erwähnt, um deutlich zu machen, dass es andere, viel wichtigere Kriterien gibt, über die nicht geredet wird, und bei denen gefragt werden muss, inwiefern Windkraft diese überhaupt erfüllen kann. Da wäre zunächst die Schwarzstartfähigkeit, zu welcher Windräder nach einem Blackout nicht in der Lage sind, da jedes von ihnen Strom aus dem Netz ziehen, oder mit Notstrom versorgt werden muss, um Elektrik und Mechanik für die Verstellung der Rotorblätter zu versorgen. Außerdem brauchen deren Wechselrichter einen Taktgeber zur synchronen Einspeisung in das Netz. Dies sind die konventionellen, synchron laufenden Kraftwerke die durch Windkraft ersetzt werden sollen. Weiter seinen nur Stichworte genannt, um aufzuzeigen, dass Stromversorgung komplexer ist als über den Anteil von Energie zu reden. Dies wären, Frequenzhaltung (50 +/- 0,2 Hz), phasensynchrone Einspeisung, positive und negative Regelleistung, Blindleistung und Sekundenreserve. Als letztere dienen die Turbinensätze und Generatoren welche die Netzfrequenz dank ihrer schweren rotierenden Massen bei abrupten Lastwechseln im Netz für Sekunden in Grenzen hält, bis weitere Regelmaßnahmen greifen. All diese Systemdienste können nicht oder nur eingeschränkt von Windrädern ausgeführt werden. Auch daran sollte einen Gedanken verschwenden, wer über Windkraft redet. Vieles davon trifft übrigens auch auf Photovoltaik zu.

Die zunehmende Destabilisierung des Stromnetzes erkennt man an der Anzahl und den Kosten für ungeplante Regeleingriffe (Redispatch). Diese beliefen sich 2022 auf 2.69 Mrd. EUR. Dies ist eine Steigerung um 2.345 % (in Worten Zweitausend-DreihundertFünfundvierzig Prozent) gegenüber 2013. Steigende Kosten durch Redispatch  Zu weiteren Informationen über die Grenzen der Physik auch der anderen „Erneuerbaren“ dient mein Fachartikel. Woher kommt der Strom – die Grenzen der Erneuerbaren 

Infraschall – die unhörbare Gefahr

Mit Infraschall von Windrädern macht es sich die Politik ganz einfach. Das Vorsorgeprinzip (GG Artikel 2/2) wird ausgehebelt, indem erklärt wird a) es gäbe keine Studien, die eine Gefahr belegen würden und b) es gäbe auch Infraschall aus anderen Quellen, wie Verkehrslärm und Blätterrauschen. Zitiert wird dabei gern eine Studie der LUBW aus 2016. Darin wurden Schalldruckpegel im Bereich 1 – 80 Hz bis ca. 75 dB gemessen und mit anderen Schallquellen verglichen, und daraus geschlossen, dass (Zitat) „Auswirkungen durch Infraschall von Windkraftanlagen nach den vorliegenden Erkenntnissen nicht zu erwarten sind.“  Doch heißt, dem Stand der damaligen Messtechnik und Bewertungskriterien (also nach den vorliegenden Erkenntnissen) entsprechen etwas nicht zu „erwarten“ gerade nicht, dass dies „auszuschließen“ ist. Damit wird dem Vorsorgeprinzip nicht Genüge getan. Auch wurden keine weiteren Studien an größeren Windrädern nach „neuesten“ Erkenntnissen durchgeführt. Man ging von einer „Wahrnehmungsschwelle“ aus. Für akustischen Schall (20 Hz -20 kHz) ist das menschliche Ohr der „Empfänger“. Doch Infraschall (etwa < 20 Hz) kann das menschliche Ohr nicht hören. Folgt man der Argumentation, „wenn man etwas nicht hören kann, kann es nicht gefährlich sein“, so müsste man auch Radioaktivität als ungefährlich betrachten, weil man sie mit keinem Sinnesorgan wahrnehmen kann. Dies würde jeder als absurd bezeichnen, nur beim Infraschall wird „Wahrnehmung“ mit „Hören“ gleichgesetzt. Dabei ist der Begriff „Wahrnehmung“ nicht auf die bekannten menschlichen Sinnesorgane beschränkt und auch nicht auf die von Tieren. Denn „Wahrnehmung bezeichnet jenen Aspekt des psychischen Geschehens und Erlebens, der sich auf die Kopplung des Organismus an funktional relevante Aspekte der physikalischen Umwelt bezieht. Hierzu gehören nicht nur die haptische, visuelle, auditive, ……Wahrnehmung.“  Man macht es sich mit dem Thema Infraschall sehr einfach, wenn es um Windräder geht, die einem politischen Narrativ folgen und für die es milliardenschwere Geschäftsmodelle gibt.

Doch was sind die neuesten Erkenntnisse, nach denen man Studien ausrichten sollte? Zum einen sind es Windräder mit größeren Rotoren, die größere Druckstöße bei niedrigeren Umdrehungszahlen und damit niedrigeren Frequenzen bei 1 Hz und darunter verursachen. Zum anderen ist es die spitze Form der Druckimpulse (hier im Frequenzbereich < 20 Hz), die zwangsläufig Oberwellen (vielfache Harmonische der Grundfrequenz) erzeugen. Diese bestimmen das Klangbild welches nicht mit simplen Druckmessgeräten erfasst werden kann, weil dazu neben Frequenzfiltern zur Unterdrückung von Hintergrundrauschen auch eine Fourier-Analyse des Messsignals notwendig ist. Jeder Elektrotechniker kennt dies von Impulsformen, die keine Sinusfunktionen sind.

Allein aus gesundem Menschenverstand ergibt sich die Frage, ob der Schalldruck (in dB) das alleinige Kriterium, sein kann? Wirkt nicht eine quietschende Tür oder ein tropfender Wasserhahn trotz niedrigerem Schallpegel weitaus störender, als ein Blätterrauschen? Wäre es nicht angemessen, außer dem Schalldruck auch das „Klangbild“ (Frequenzspektrum) des Infraschalls zu prüfen? Man kann bei offenem Fenster und Meeresrauschen gut schlafen, nicht aber bei einem tropfenden Wasserhahn, obwohl der Schallpegel hier viel geringer ist. Verkehrslärm, Blätterrauschen und Meeresrauschen erzeugen diffusen Infraschall, während Windräder periodischen Infraschall inkl. Oberwellen erzeugen, dies ist der wesentliche Unterschied.

Es gibt aktuell ein weiteres beliebtes Argument, welches den Windkraft-Gegnern medial entgegenschlägt. Dies ist ein Rechenfehler in einer Studie der BGR (Bundesanstalt für Geowissenschaften und Rohstoffe Hannover). Nur ging es in dieser Studie mit keinem Wort um Gesundheitsschutz vor Infraschall, sondern um den Schutz von Geräten zur Detektion von Kernwaffentests, für welche die BGR in ein weltweites Messnetz eingebunden ist. Der Rechenfehler wirkte sich so aus, dass er keine Auswirkungen auf den Mindestabstand von Windrädern zu den Messstationen der BGR hatte. Doch wird dieser Fehler nun den GegenWind BI vorgehalten. Dies leider auch vom ÖR-Rundfunk, was dessen Auftrag zur allseitigen Berichterstattung widerspricht. Dabei wird sich ausschließlich auf Messungen des Schalldruckes bezogen. Windkraft-Gegner haben keine Lobby, schon gar nicht beim ÖRR.

Fazit: Dem Freistaat Thüring wird vorgeschlagen, Studien unter den o. g. Aspekten in Auftrag zu geben, um seine Bürger und die gesamte Umwelt vor Infraschall zu schützen. Denn auch Flora und Fauna sind Infraschall ausgesetzt. Und um diese Folgen hat sich wohl noch niemand gekümmert? Zumindest einen Hinweis könnten die Probleme mit getöteten Pelztieren in der Nähme von Windrädern Dänemark geben.  Das Vorsorgeprinzip gilt für Mensch und Natur.

Windkraft – ein ökologisches Desaster

Wurden bisher die Gesundheitsgefahren durch Windkraft für Menschen allein in Bezug auf hörbaren Schall bewertet und Tiere hatten (so zynisch es klingt) noch einen gewissen „Vorrang“, so fährt nun, eine von der Gesetzgebung in Gang gesetzte, „Dampfwalze“ über die Landschaft. Nichts scheint mehr „heilig“, nichts ist unmöglich, um die Windkraft mit Brachialgewalt an jeden Ort, einschließlich in den Wald zu bringen. Getötete Flugtiere, ca. 1000 Tonnen an den Rotoren klebende Insekten (gem. Studie DLR), von den Fundamenten durchstoßene Grundwasserschichten, die Rodung ganzer Waldflächen einschließlich Berggipfeln, Tausende Tonnen Stahlbetonfundament je Windrad, Schall und Infraschall im Wald ohne Rücksicht auf Flora und Fauna, wohl in Unkenntnis der komplexen ökologischen Zusammenhänge und deren Folgen. Tausende Tonnen Abrieb von Mikro- und Nanoplastik von den Rotoren mit anhaftender „Ewigkeitschemikalie“ BPA (Bisphenol A) und die Verwendung der „Ewigkeitschemikalie“ SF6 (Schwefelhexafluorid) in den elektrischen Schaltanlagen. Ungeklärte Fragen zu Rückbau und Entsorgung, wie der Fundamente oder der Rotorblätter. Massive Entnahme von kinetischer Windenergie aus der Atmosphäre, Austrocknung und Erwärmung der Landschaft – und dies alles unter dem Marketing-Begriff „Erneuerbare Energie“ für „Ökostrom“.

Windkraft braucht keinen Vergleich zu scheuen, wenn es um die ökonomische Zerstörung einer Volkswirtschaft und um die umfassende ökologische Zerstörung der Natur und Kulturlandschaft geht.

All dies ist nur mit gebetsmühlenartiger Propaganda (= einseitige Information) Pro Windkraft möglich. Das ganz große Narrativ ist die Rettung vor der vorgeblichen Klima-Katastrophe durch Verringerung von CO2-Emissionen mittels einem ominösen 1,5-Grad-Ziel. Dabei reicht ein Blick in das Pariser-Klimaabkommen, um den ganzen Schwindel zu begreifen. Denn dieses unterscheidet entwickelte Länder (wie Deutschland) und Entwicklungsländer (wie lt. UN, China und Indien). Das Pariser-Klima-Abkommen

Artikel 4/4: “Developed country parties should continue taking the lead by undertaking economy-wide absolute emission reduction targets. Developing country Par2es should continue enhancing their mitigation efforts, and are encouraged to move over time towards economy-wide emission reduction or limitation targets in the light of different national circumstances.”

Zunächst wird hier zwischen Industrieländern (Developed country parties) und Entwicklungsländern (Developing country parties) unterschieden. Industrieländer (wie Deutschland) sollen Ziele formulieren, um ihre Emissionen (in absoluten Zahlen) zu senken. Entwicklungsländer (China, Indien, usw.) werden „ermutigt“, ihre Anstrengungen zu erhöhen, um entspr. ihren „nationalen Umständen“ und „mit der Zeit“, ihre Emissionsziele zu senken. Dafür erhalten sie übrigens aus einem 100-de Mrd. Fond Geld, in den Industrieländer (wie Deutschland) einzahlen. Mit anderen Worten, Deutschland betreibt „Klimaschutz“ wegen einer angeblich drohenden „Klimakatastrophe“ und senkt seine CO2-Emissionen (von ca. 0,7 Gt/a), während China seine CO2-Emissionen von ca. 11 Gt/a erst mal erhöhen kann. Um dann mit der Zeit und entspr. der Umstände seine Ziele zu senken. Und so kann China fast jede Woche ein neues Kohlekraftwerk in Betrieb nehmen und 300 Kohlekraftwerke auf dem Globus bauen, wozu die selbsternannten „Klimaschützer“ schweigen. So unmittelbar ist also die Bedrohung durch eine vorgebliche Klima-Katstrophe, dass weltweit Maßstäbe angelegt und Maßnahmen durchgeführt werden sollen, die im Vergleich absurder nicht sein könnten. China baut 300 neue KohlekraJwerke auf dem Globus – und die Klimaschützer schweigen 

In Deutschland klebt sich der grüne Nachwuchs in der Vorstellung, die „Letzte Generazon“ zu sein, an die Straße. Gern gesponsert auch on Aileen Ge|y, der Erbin des Getty-Öl-Imperiums. Amerikanische Öl-Milliardärin finanziert Klimaradikale in Deutschland

Währenddessen baut China nicht nur Kohlekraftwerke, sondern auch Kernkraftwerke und kann, wenn die Kohlekraftwerke in Jahrzehnten abgeschrieben sind, damit ggf. seine CO2Emissionen in aller Ruhe senken. China approves construcNon of six new reactors  Auf diese Weise profitiert China von der „Klima-Katastrophe“, indem es (unter hohen CO2 Emissionen) Roheisen und Stahl für deutsche Windräder produziert, die dann in Deutschland die „CO2-Bilanz“ viel besser „gestalten“. Denn der Stahl wird woanders produziert, und man kann deshalb verkünden, „wir müssen Vorbild“ sein für China und die Welt. So jedenfalls lauteten die Antworten von Politikern, die ich darauf angesprochen habe. Sehenden Auges wird unser Land ruiniert. In China weiß man natürlich, dass CO2 das Lebensgas für die Photosynthese ist, ohne das Leben auf der Erde nicht möglich wäre, da C3-Pflanzen unterhalb von 150 ppm (0,015 %) die Photosynthese einstellen. Man weiß dort auch, dass (lt. IPCC) etwa 97 % der CO2-Emissionen natürlichen Ursprungs sind (Vulkanismus, Verwitterung, etc.) und nur ca. 3 % anthropogen (menschengemacht) sind. Wovon auf die „Entwicklungsländer“ China und Indien etwa die Hälfte davon entfällt und auf Deutschland weniger als 2 %. Mit anderen Worten, Deutschland betreibt „Klimaschutz“ mit Windrädern, um seinen Anteil an den gesamten CO2-Emissionen von 0,06 % (= 3*2/100) auf NULL zu senken. Wer bis Drei zählen kann, erkennt das Geschäftsmodell. Es stimmt, China hat mehr Windräder als Deutschland. China hat aber auch ca. das Dreifache der Stromversorgung etwa der EU. Dies relativiert die Sichtweise.

Zum Schluss ein Schwank – aus dem Klima-Tollhaus

Dr. John Clauser, Physik-Nobelpreisträger 2022, hatte in einer Arbeit die Unzulänglichkeit der Klima-Modelle des UN-Weltklimarates IPCC thematisierte „How much can we trust IPPC climate predictions“ (Wie weit können wir den Klima-Vorhersagen der IPPC vertrauen)? Daraufhin wurde von einem Vortrag vom IMF (International Monetary Fund) ausgeladen, denn er hatte gesagt: „Ich glaube nicht, dass es eine Klima-Krise gibt“ (I don’t believe there is a climate crisis). Nobel Laureate Silenced  Erkennt man daran nicht, wie „der Hase läuft“? Ein Physik-Nobel-Preisträger, der zur Wissenschaft zur Interpretation der „Klima-Krise“ durch Verbesserung der Klima-Modelle betragen könnte, wird von Bankern von einem Vortrag ausgeladen, weil er „das Falsche“ gesagt hat. Hier erübrigt sich wohl jeder Kommentar.

Fazit von Dr. John Clauser:

„Das populäre Narrativ über den Klimawandel spiegelt eine gefährliche Korruption der  Wissenschaft wider, die die Weltwirtschaft und das Wohlergehen von Milliarden von Menschen bedroht. Die fehlgeleitete Klimawissenschaft hat sich zu einer massiven schockjournalistischen Pseudowissenschaft ausgeweitet. Diese Pseudowissenschaft wiederum ist zum Sündenbock für eine Vielzahl anderer, nicht damit zusammenhängender Missstände geworden.“ Dr. John Clauser – Es gibt keinen Klimanotstand  Original-Website: Nobel Physics Laureate 2022 Slams ‘Climate Emergency’ Narrative as “Dangerous Corruption of Science”  Dr. John Clauser ist nun Mitglied bei der CO2Coalition in den USA. https://co2coalition.org/ Dieser gehören auch andere Physiker an, wie Prof. Dr. Richard Lindzen, der zusammen mit 300 namentlich und mit Qualifikation genannten Wissenschaftlern die Petition an Donald Trump gerichtet hatte, das Pariser Klima-Abkommen zu verlassen. Unseren Leit-Medien haben darüber nicht berichtet. Petition von Dr. Richard Lindzen an Präsident Trump: „Ziehen Sie sich aus der UN Convention on Climate Change zurück!“ Mit Link zum englischen Original inkl. Liste der Unterzeichner. Doch Petitionen von Physikern oder gar noch Nobelpreisträgern gefallen der UN (und ihrem IPCC) gar nicht, denn „Uns gehört die Wissenschaft“ (we own the science) beansprucht die Leiterin für Globale Kommunikation der UN. Muss man noch mehr wissen, zur KlimaKatastrophe, dem Green New Deal der EU und zu Windrädern? Und zum Ort des Vortrages? “We own the science” – UN Under-Secretary for Global Communication, Melissa Flemming at WEF-Davos (02:00)  Bestätigt wurde dies von Susan Diane Wojcicki, CEO von Youtube, ebenfalls beim WEF-Davos. Desinformation werde durch Algorithmen ganz nach hinten geschoben. Besonders genannt wurde dabei auch das Thema Klimawandel. WEF – YOUTUBE CEO SUSAN WOJCICKI PROUDLY  ADMITS TO CENSORING INFORMATION ON COVID AND DEMONETIZING  So wird durch Zensur sichergestellt, dass wir zum Thema Klimawandel durch BigTech-Media nur das erfahren, was uns die UN, der angeblich die Wissenschaft gehört, sagen möchte, aber keinesfalls das, was ein Physik-Nobelpreisträger, der die Klima-Modelle der UN-IPCC kritisiert, zu sagen hat. Darum muss sich schon jeder selbst kümmern. Denn wie sagte doch Immanuel Kant, dessen 300. Geburtstag am 22.04.2024 begangen wird

„Habe Mut dich deines eigenen Versandes zu bedienen.“

 

 

Mit freundlichem Gruß

Dieter Böhme Dipl.-Phys.

 

 

 

Disclaimer:

Sollte ein Link nicht öffnen, diesen bitte kopieren und direkt über den Internet-Browser aufrufen. Der Autor hat keinen Einfluss auf verlinkte Dokumente und kann deshalb für deren Inhalte keine Haftung übernehmen.

 

 

 




Treibhauseffekt: Ja oder Nein?

von Dr. Eike Roth

Vorbemerkung:

Bei EIKE ist ein detaillierter zweiteiliger Bericht erschienen mit dem erklärten Anspruch, einen experimentellen Nachweis der Existenz des „Treibhauseffektes“ (THE) erbracht zu haben [1], [2]. Die Reaktionen waren vielfältig, zum Teil aber auch so, wie es wohl zu befürchten war: Wenn ein gerne eingesetztes Argument in Gefahr gerät, sich als falsch zu erweisen, dann regt das nicht zum nochmaligen Nachdenken an, sondern eher zum verstärkten Einsatz des Argumentes und zum pauschalen Verwerfen aller Vorbringungen, die die Berechtigung des Argumentes in Frage stellen könnten. Im konkreten Fall ist das durch den genannten Bericht gefährdete Argument die Aussage: „Der Treibhauseffekt kann gar nicht existieren, weil er experimentell nicht beweisbar ist“. Das ist zwar unlogisch, wird aber immer wieder vorgebracht, weil es nützlich erscheint, wahrscheinlich auch tatsächlich geglaubt wird. Unlogisch ist es, weil die Nicht-Existenz eines Effektes prinzipiell nicht experimentell bewiesen werden kann! Vielleicht hat man ja nur noch nicht das richtige Experiment versucht? Oder es war einfach die Nachweisgrenze nicht niedrig genug? Könnte das diesmal vielleicht anders sein? Aber so etwas wird von manchen gar nicht erst in Erwägung gezogen. Vielleicht auch deswegen nicht, weil dabei ja auch etwas herauskommen könnte, das nicht herauskommen darf. Da lieber einfach mit sehr oberflächlicher Begründung schwerste Geschütze gegen das Experiment selbst und gegen das damit verfolgte Ziel, die prinzipielle Existenz des THE außer Frage zu stellen, einsetzen. Auch wenn das vielleicht niemanden überzeugt, die Glaubwürdigkeit der „gefährlichen Schrift“ könnte es wohl doch untergraben und wenigstens das muss unbedingt erreicht werden! Dann entfällt auch der Zwang zum nochmaligen Nachdenken.

Auf die einzelnen Wortmeldungen zum Experiment (wie gesagt, ein sehr breites Spektrum) einzugehen, fehlt mir erstens die Zeit, es wäre zweitens auch sehr unübersichtlich, weil die Diskussion unkoordiniert, an vielen verschiedenen Stellen und mit schlecht erkenntlicher Zuordnung zu vorherigen Wortmeldungen abläuft, es würde drittens wohl auch nur wenig Erfolg haben, weil ganz offensichtlich Experimente nur wenig Überzeugungskraft besitzen, wenn man sich nicht überzeugen lassen will, und es würde auch die zulässige Länge von Kommentaren weit überschreiten. Ich will es daher nochmals mit einer in sich einigermaßen geschlossenen Abhandlung versuchen, einer Abhandlung generell zum Thema „THE: Ja oder Nein“, auch wenn sich da Überschneidungen mit den Aussagen in [1] und [2] und auch in anderen Beiträgen ergeben. Aber wenigstens versuchen will ich es, Klarheit (auch über die prinzipielle Existenz des THE) kann nur durch Diskussionen geschaffen werden. Das hier ist eine Aufforderung zu solchen!

Die Aufgabe:

Worum geht es denn überhaupt? Landläufig ist der „Treibhauseffekt“ (der nun einmal so heißt, auch wenn der Name vielleicht nicht so ganz passt) die (angebliche oder tatsächliche) Erwärmung der Erde durch die Anwesenheit von CO2 (und anderer „Treibhausgase“) in der Atmosphäre. Ist so eine Erwärmung überhaupt möglich, wenn die Atmosphäre kälter ist als die Erde? Für manche verbietet das der 2. HS der Thermodynamik, nach dem Wärme „von selbst“ immer nur von warm nach kalt gehen kann. Andere sehen das anders, die Differenzen scheinen unüberwindbar zu sein.

Im Versuch, in dem Streit Klarheit zu erreichen, sei zunächst zusammengestellt, in welchen Stufen der (angebliche oder tatsächliche) THE abläuft bzw. beschrieben werden kann, und dann sei diskutiert, ob bzw. wann diese Stufen in der realen Situation von Erde + Atmosphäre tatsächlich so ablaufen können. Vorab sei aber gleich darauf hingewiesen, dass dies auch im Ja-Fall noch nichts über die tatsächliche Größe des THE aussagt, die ist ein ganz anderes Thema (dazu später noch etwas mehr)!

Stufen des THE:

  1. Erde + Atmosphäre erhalten nur von der Sonne Energie, das aber konstant. Dadurch erwärmen sie sich und nehmen die Temperatur an, bzw. die Temperaturverteilung an, bei der sie insgesamt gerade gleich viel Energie in den Weltraum abstrahlen, wie von der Sonne zugestrahlt wird. Dann herrscht Gleichgewicht.
  2. In dieses Gleichgewicht ist auch die Erdoberfläche eingebunden. Wenn sie bei sonst gleichen Randbedingungen aber zusätzliche Strahlung erhält, woher auch immer, dann erwärmt sie sich über den Ausgangswert hinaus. Solange, bis sich ein neues Gleichgewicht einstellt.
  3. Diese zusätzliche Strahlung kann auch „Gegenstrahlung“ sein. Als solche bezeichnet man jegliche Strahlung, die als Folge der von der Erdoberfläche abgegebenen Energie durch irgendeinen Prozess wieder zur Erdoberfläche zurück geführt wird. Anmerkung: Etwas erweitert kann man als „Gegenstrahlung“ auch jede Strahlung zur Erdoberfläche bezeichnen, die nicht direkt von unserer Sonne stammt. Dann würde z. B. auch eine zweite Sonne „gegenstrahlen“. Hier wird die eingeschränktere Version zugrunde gelegt.

Daraus lässt sich auch eine Definition des THE ableiten: „Der THE ist die (angebliche oder tatsächliche) Erwärmung der Erdoberfläche über das Niveau hinaus, dass sie ohne Gegenstrahlung hätte (bei sonst gleichen Randbedingungen)“. Anders ausgedrückt: „Der THE ist die (angebliche oder tatsächliche) Erwärmung der Erdoberfläche durch Gegenstrahlung, auch wenn diese Gegenstrahlung von einem Körper ausgesandt wird, der kälter ist als die Erdoberfläche.“ Man kann das auf zwei Grundfragen herunterbrechen: Gibt es so eine Gegenstrahlung, und wenn ja, kann sie die Erdoberfläche erwärmen? Ein Nein macht den THE unmöglich. Wird jedoch beides mit ja beantwortet, dann gibt es den THE, unabweislich. Ob der THE gleichzeitig durch andere Effekte abgeschwächt oder gar überkompensiert wird, ist eine völlig andere Frage. Leider wird das nicht immer sauber auseinandergehalten.

Diskussion der realen Situation für Erde + Atmosphäre:

  1. Stufe I gilt nicht exakt, weil die Sonnenstrahlung nicht exakt konstant ist (und weil es auch minimalen massebehafteten Energieaustausch gibt, z. B. durch gelegentliche Meteoriteneinschläge, oder durch kontinuierlich aus der Atmosphäre entweichende Moleküle). Für die Diskussion über die prinzipielle Existenz des THE können diese Effekte aber sicher vernachlässigt werden.

Das sich gem. Stufe I einstellende Gleichgewicht ist nur schwer durch einfache Zahlen zu beschreiben, weil sowohl auf der Erdoberfläche als auch in der Atmosphäre große Temperaturunterschiede bestehen und die Strahlungsintensität von der vierten Potenz der Temperatur abhängt. Außerdem ist das Gleichgewicht von periodischen Schwankungen überlagert (tägliche, saisonale, jährliche, mehrjährige Schwankungen). Für die genaue Größe eines möglichen THE sind das wichtige Einflussfaktoren, für die Frage nach der grundsätzlichen Existenz des THE spielen sie aber keine Rolle. Stufe I kann also als erfüllt angesehen werden. Jedes System, dem Energie zugeführt wird, nimmt die Temperatur (die Temperaturverteilung) an, bei der gleich viel Energie ab- wie zugeführt wird.

Die Erwärmung gem. Stufe II gilt streng genommen nur, wenn die Erdoberfläche zumindest einen Teil der zusätzlichen Strahlung auch absorbiert. Aber abgesehen von höchstens extrem seltenen Fällen ausschließlicher Totalreflexion tut sie das immer. Und da die Absorption zusätzlicher Strahlung immer zusätzliche Energiezufuhr bedeutet, bedeutet sie bei sonst gleichen Randbedingungen immer auch Erwärmung! Das fordert einfach der 1. HS. Das gilt völlig unabhängig davon, woher diese zusätzliche Strahlung kommt und bei welcher Temperatur sie ausgesandt wird. Energie kann einfach nicht verschwinden.

Man kann zwar aus der Wellenlänge der Strahlung auf die Temperatur des aussendenden Körpers schließen, und es ist auch der Anteil von dieser Strahlung, der von der Erde absorbiert wird, frequenzabhängig, aber Strahlungsabsorption ist immer Energiezufuhr, siehe oben, 1. HS! An dem kommt man genauso wenig vorbei wie am 2. HS. Stufe II ist also auch immer erfüllt. THE: Ja oder Nein hängt daher von der Stufe III ab.

Gem. Stufe III ist „Gegenstrahlung“, wenn es sie denn überhaupt gibt, immer eine Folge von Energieabfuhr von der Erdoberfläche. Sie erfordert daher immer einen Prozess, der zumindest einen Teil des Energieflusses umlenkt, wieder zurück zur Erde. Möglichkeiten hierfür sind z. B.:

  • Im Weltraum angebrachte Spiegel, die die Abstrahlung der Erdoberfläche zurückwerfen (wobei wir unterstellen, dass diese Spiegel keine zusätzliche Sonnenstrahlung zur Erde reflektieren). Welche Temperatur die Spiegel dabei haben, spielt keine Rolle, sie reflektieren ja nur. Statt der Spiegel könnten es theoretisch auch umlenkende Prismen sein. Auch diesfalls käme es auf deren Temperatur nicht an.
  • Oder im Weltraum vorhandene Körper, die durch die Abstrahlung von der Erde erwärmt werden und dann als Folge davon ihrerseits Wärme (in alle Richtungen) abstrahlen (hier tritt also Absorption und Re-Emission an die Stelle von Spiegelung oder Umlenkung im ersten Spiegelpunkt). Wir nehmen dabei an, dass diese Körper irgendwie so von der Sonne abgeschirmt sind, dass sie von dieser keine Strahlung ehrhalten, sie werden daher nur von der Abstrahlung der Erde erwärmt. Auf die genaue Temperatur dieser Körper kommt es dabei nicht an, sie muss nur höher sein als der Weltraumhintergrund (was immer der Fall ist, wenn diese Körper Abstrahlung von der Erde absorbieren, das fordert wieder der 1. HS). Dann bewirkt die schiere Existenz dieser Körper im Weltraum Gegenstrahlung für die Erdoberfläche (jedenfalls, solange die dazwischen liegende Atmosphäre nicht völlig undurchlässig für diese Strahlung ist).

Einschub: „Undurchlässig“ ist nicht gegeben, wenn die Atmosphäre „dicker“ ist als die freie Weglänge der Strahlung in ihr. In der Atmosphäre wird Strahlung durch mehrfache Absorptions- und Emissionsprozesse schichtenweise weitergeleitet. Wir die Atmosphäre „dicker“, kommt auf der anderen Seite weniger Strahlung heraus, aber immer noch etwas.

  • Ein solcher Körper im Weltraum kann auch gasförmig sein, nur muss das Gas Wärmeabstrahlung von der Erde zumindest teilweise absorbieren. „Treibhausgase“ tun das definitionsgemäß (und können dann auch selbst strahlen).
  • Wie weit der die Rückstrahlung aussendende Körper von der Erdoberfläche entfernt ist, spielt dabei nur eine quantitative Rolle, aber keine grundsätzliche.
  • Der die Rückstrahlung aussendende Körper kann daher auch in der Atmosphäre der Erde sein (z. B. Treibhausgase oder Wolken).

Mit dem Aufzeigen möglicher Prozesse für die Rücklenkung ist bewiesen, dass „Gegenstrahlung“ prinzipiell möglich ist.

  1. Zur Klarstellung: Ob die Erdoberfläche zusätzliche Energie von z. B. einer zweiten Sonne zugestrahlt bekommt, oder als „Gegenstrahlung“ durch Rückführung eines Teils der von ihr selbst einmal abgegebenen Energie, das macht keinen Unterschied. Die Erdoberfläche kann diese beiden Strahlenarten gar nicht unterscheiden. Generell kann sie auf Strahlung nicht unterschiedlich in Abhängigkeit von deren Herkunft reagieren.
  2. Das obige gilt, wie gesagt, bei „sonst gleichen Randbedingungen“. Bleiben die tatsächlich gleich, dann führt CO2 (oder ein anderes Treibhausgas) irgendwo „oberhalb“ der Erdoberfläche immer via Gegenstrahlung zu einer Erwärmung der Erdoberfläche, immer! Das gilt unabhängig davon, ob dieses „oberhalb“ noch innerhalb der Atmosphäre ist, oder schon außerhalb von ihr (nur die Stärke hängt natürlich stark davon ab).
  3. Eine Ausnahme davon könnte es höchstens geben, wenn außerhalb der Atmosphäre viel CO2 gerade auf der Linie zwischen Sonne und Erde angeordnet ist. Dann könnte die Abschwächung der Sonnenstrahlung gegenüber der vom CO2 ausgesandten Gegenstrahlung überwiegen. Wenn das CO2 aber „irgendwo daneben“ angeordnet ist, dann schwächt es die Sonnenstrahlung zur Erde nicht ab (die „sonstigen Randbedingung“ bleiben daher gleich), es sendet aber zusätzliche Strahlung zur Erde, es erwärmt diese also auf jeden Fall!
  4. Ist das CO2 aber innerhalb der Atmosphäre, dann sind die „sonst gleichen Randbedingungen“ prinzipiell nicht mehr gewährleistet. Das CO2 schwächt dann ja auf jeden Fall auch die Sonneneinstrahlung auf die Erdoberfläche ab (nur wie viel, das ist umstritten). Dann müssen die beiden Effekte gegeneinander aufgerechnet werden (jedenfalls für genaue Rechnungen).
  5. Bei diesem Aufrechnen überwiegt – zumindest bei nicht allzu hohen Konzentrationen – offensichtlich der erwärmende Effekt. Mehr dazu in Kapitel 8.

Zusammenfassung

Die Temperatur(verteilung) im System „Erde + Atmosphäre“ stellt sich immer so ein, dass die von diesem System abgestrahlte Energie gleich groß ist wie die ihm zugestrahlte Energie (jeweils Gesamtsumme). Erhält die Erdoberfläche zusätzliche Strahlung, woher auch immer, dann erwärmt sie sich bei „sonst gleichen Randbedingungen“ zwangsweise, bis ein neues Gleichgewicht erreicht ist. Das fordert der 1. HS. Diese Erwärmung gilt unabhängig von der Quelle dieser zusätzlichen Strahlung und unabhängig von der Temperatur dieser Quelle (und unabhängig davon, wodurch diese Quelle ihre Temperatur erreicht). Eine (zusätzliche) Erwärmung der von der Sonne erwärmten Erdoberfläche durch zusätzliche Strahlung von einem kälteren Körper verstößt daher eindeutig nicht gegen den 2. HS. Auch dann nicht, wenn dieser kältere Körper seine Energie aus der Abstrahlung der Erde speist, es sich also um „Gegenstrahlung“ handelt. Das ist auch deswegen kein Verstoß gegen den 2. HS, weil dieser 2. HS erstens nur für abgeschlossene Systeme gilt, die Erdoberfläche aber kein abgeschlossenes System ist (auch nicht zusammen mit der Atmosphäre), sondern (laufend) Energiezufuhr von der Sonne erhält und (laufend) Energie in den Weltraum abgibt, und weil der 2. HS zweitens nur Netto-Wärmeströme regelt und zwei Körper sich immer gegenseitig bestrahlen, wobei die (gegengerichteten) Einzelströme immer nur von der Temperatur des aussendenden Körpers abhängen (der 2. HS regelt nur, welcher dieser beiden Ströme der größere ist!). Der 2. HS verbietet den THE auf der realen Erde daher gerade nicht! Beim THE geht immer und überall mehr Wärme von warm nach kalt als umgekehrt. Es verschiebt sich nur in manchen Bereichen das Temperaturniveau, auf dem dieser Übergang erfolgt, aber er geht, wie gesagt, immer von warm nach kalt.

Zwei ergänzende Gedankenexperimente:

  1. Betrachten wir den Wärmetransport durch vier aufeinandergestapelte (gleiche) Metallwürfel hindurch. Der oberste werde auf seiner Oberseite konstant sehr heiß gehalten (T1), der unterste auf seiner Unterseite konstant auf der viel niedrigeren Bodentemperatur T2. Im Mittelpunkt der Säule (Übergang vom zweitem zum dritten Würfel) herrscht die Mitteltemperatur (T1 + T2) x 1/2. Ersetzen wir nun den zweiten Würfel von unten durch einen ansonsten gleichen, die Wärme aber nur halb so gut leitenden Würfel. Dann herrscht nach kurzer Zeit am Mittelpunkt der Säule die Temperatur (T1 + T2) x 3/5. Der zweite Würfel von oben ist also eindeutig wärmer geworden, obwohl der neu hinzugefügte Würfel eindeutig kälter war und immer noch ist!
    Würden wir, statt T1 konstant zu halten, die Heizleistung für die Oberfläche des obersten Würfels konstant halten, würde der geschilderte Würfeltausch zu einem Ansteigen von T1 führen!
    Analog ist es auch, wenn wir im System Sonne/Erde/Atmosphäre/Weltraum die Atmosphäre durch eine neue Atmosphäre mit schlechterer Wärmeleitfähigkeit ersetzen. Und ob nun die Wärmeleitfähigkeit verschlechtert wird, oder ob ein Teil der durchgehenden Wärme auf irgendeinem Wege wieder zurückgeführt wird, das kommt aufs Gleiche heraus. Treibhausgase stellen eine solchen Weg zur Verfügung.
  2. Betrachten wir zunächst nur Erde und Sonne frei im Weltraum. Auf der Erde stellt sich wie oben eine bestimmte Temperatur(verteilung) ein. Nun bringen wir auf der von der Sonne abgewandten Seite der Erde etwas außerhalb der Atmosphäre eine Platte ein, die so groß ist, dass sie gerade noch voll in den Kernschatten der Erde passt. Diese Platte wird nur durch die Abstrahlung der Erde erwärmt. Sie sendet aber ihrerseits Gegenstrahlung zur Erde. Die Erde muss sich daher erwärmen!

Dieses Gedankenexperiment hat den Vorteil, dass der THE, der definitionsgemäß immer in reiner Strahlungseffekt ist, nicht durch andere Effekte wie Leitung und Konvektion überlagert wird.

Noch ein Detailpunkt, abgeleitet aus den Diskussionen bei EIKE:

Ein konstant beheizter Körper erwärmt sich bis zu einer bestimmten Gleichgewichtstemperatur, die sowohl von der Heizleistung als auch von der Umgebungstemperatur abhängt (andere Einflussgrößen als konstant angenommen). Nach Ausschalten der Heizung kühlt er sich mit einer bestimmten Abkühlrate bis zur Umgebungstemperatur ab. Nun wird immer wieder gesagt, dass CO2 mit seiner Gegenstrahlung zwar die Abkühlung des nicht mehr beheizten Körpers verlangsamen könne, nicht aber die Gleichgewichtstemperatur des weiterhin beheizten Körpers erhöhen könne. Damit wäre alles über den THE gesagt, es gibt ihn nicht!

Da erhebt sich aber sofort die Frage, ob denn der Körper weiß, wann er auf die Gegenstrahlung reagieren soll und wann nicht, oder ob vielleicht eher die Gegenstrahlung weiß, wann sie auf den Körper einwirken soll und wann nicht?

Natürlich weiß es keiner und es muss immer gleich sein: Entweder wirkt die Gegenstrahlung in beiden Fällen, beheizt und unbeheizt, oder sie wirkt in beiden Fällen nicht. Wirkt sie nicht, dann gibt es trivialerweise auch keinen THE, doch kann das nach dem 1. HS nur dann sein, wenn der Körper nichts von dieser Gegenstrahlung absorbiert! Wirkt sie aber, dann spricht das klar für den THE!

Weitere wichtige Überlegungen:

Alle Voraussetzungen für die Existenz des THE sind wohl eindeutig erfüllt. Es gibt ihn also. Das sagt aber

  • Erstens nichts über seine Höhe aus. Es ist m. E. ganz wichtig, diesen Unterschied zu beachten. In vielen Diskussionen werden immer wieder Argumente gegen die Existenz des THE vorgebracht, die bei genauerem Hinsehen nur gegen einen großen Einfluss von CO2 sprechen (siehe auch den nächsten Spiegelpunkt und Kapitel 9).
  • Zweitens sagt die Existenz des THE nichts darüber aus, ob das CO2 (und die anderen Treibhausgase) nicht auch zusätzliche Prozesse auslösen, die dem THE entgegen wirken, ihn abmildern, ihn vielleicht sogar überkompensieren können (dann würde CO2 in Summe sogar kühlen! Aber nicht, weil es keinen THE gibt, sondern weil der von einem stärkeren Effekt überlagert wird!). Ein möglicher solcher Effekt wurde schon genannt: Die Abschwächung der Einstrahlung von der Sonne durch Absorption in den Treibhausgasen. Nur überwiegt diese Abschwächung normalerweise nicht, sodass CO2 immer noch erwärmt, sie muss aber bei genaueren Rechnungen berücksichtigt werden.

Ein weiterer möglicher solcher zusätzlicher Effekt besteht z. B. darin, dass mit Treibhausgasen in der Atmosphäre auch Wärme, die durch Leitung, Konvektion und insbesondere als latente Wärme von der Erdoberfläche in die Atmosphäre eingebracht wird, nun aus dieser auch in den Weltraum abgeben werden kann (per Strahlung aus dem oberen Bereich!). Ohne Treibhausgase könnte diese Wärme nur als massengebundener Transport zurück zur Erdoberfläche gelangen, mit Treibhausgasen geht ein Teil auch in den Weltraum. Diese (nur durch die Treibhausgase und ihren Umgang mit Strahlung bewerkstelligte!) Wärmeabfuhr aus der oberen Atmosphäre in den Weltraum ist auch die Ursache für die „verkehrte“ Temperaturschichtung in der Atmosphäre: oben kälter als unten (obwohl warme Luft eigentlich aufsteigen sollt)! Ohne Treibhausgase wäre es daher nicht nur kälter auf der Erde (kein THE), sondern wir hätten auch eine völlig andere Atmosphäre mit einer völlig andren Temperaturschichtung und mit einem völlig anderen Klima, vielleicht würde es uns gar nicht geben. Die real vorhandene Schichtung in der Atmosphäre ist m. E. ein klarer Beweis für die Existenz des THE!

In [3] habe ich die hier nur kurz aufgezeigte mögliche Kühlwirkung von CO2 (und anderer Treibhausgase) näher beschrieben und nach ihrem höchstwahrscheinlich größten Anteil „Latentwärmeabfuhreffekt“ (LWE) genannt. Dabei habe ich gefordert, dass THE und LWE immer gegengerechnet werden müssen und ich habe dargelegt, dass und warum bei niedrigen Konzentrationen vermutlich der THE überwiegt, bei höheren Konzentrationen vermutlich aber der LWE. Tragfähige Argumente gegen diese Argumentation habe ich keine gehört. Untersuchungen, ab welcher Konzentration der LWE überwiegen könnte, kenne ich nicht.

  • Drittens sagt die Existenz des THE auch nichts darüber aus, was die starke Zunahme der CO2-Konzenetration in der Atmosphäre verursacht hat. Die fast ausschließlich vertretene Annahme, dies sei auf anthropogene Tätigkeiten zurückzuführen, insbesondere auf die Verbrennung fossiler Energieträger, ist höchstwahrscheinlich falsch, siehe [4], [5], [6] und dort angegebene weiterführende Literatur. Wenn das stimmt, dann kommt es weder auf die prinzipielle Existenz noch auf die genaue Größe des THE an, es entfällt auf jeden Fall die Notwendigkeit, unsere CO2-Freisetzungen zu reduzieren! Das zu überprüfen, sollte daher die oberste Priorität haben.

Schlussbetrachtung

Die häufig erhobene Forderung, die anthropogenen CO2-Freisetzungen dringend drastisch zu reduzieren, praktisch um jeden Preis, weil sonst die Erde „verbrennt“, ist m. E. unauflöslich an drei Voraussetzungen gebunden:

  1. Der THE muss existieren.
  2. Er muss stark sein.
  3. Das viele CO2 in der Atmosphäre muss „manmade“ sein.

Die erste Voraussetzung ist nach den oben gemachten Ausführungen m. E. eindeutig erfüllt, durch die Experimente von Harde und Schnell bewiesen und durch grundsätzliche Überlegungen untermauert. Die prinzipielle Existenz des THE wird ganz einfach von der Physik gefordert. Natürlich muss jede Aussage nochmals überprüft werden, aber ich sehe da wenig Chancen auf Änderung.

Die zweite Voraussetzung ist eine sehr komplexe Fragestellung, in die sehr viele Einflussfaktoren hineinwirken und die beim heutigen Stand der Wissenschaften wahrscheinlich niemand wirklich zuverlässig beantworten kann. Nach meiner persönlichen Einschätzung ist diese Voraussetzung aber viel eher nicht erfüllt als erfüllt. Hier dürfte es sich lohnen, weitere Mühe zur Abklärung hineinzustecken, wer sich dafür hinreichend kompetent fühlt. Ich habe dabei nur die Bitte, die Frage nach der Größe streng von der nach der prinzipiellen Existenz zu trennen.

Die dritte Voraussetzung ist viel einfacher zu beantworten und nach meiner persönlichen Einschätzung sehr klar nicht erfüllt, siehe die angeführte Literatur. Leider kommt sie aber in der Diskussion meist viel zu kurz. Da scheint mir mit relativ geringem Aufwand ein deutlicher Fortschritt erreichbar zu sein. Wer hat tragfähige Gegenargumente? Dass IPCC das anders sieht, ist in meinen Augen kein solches. Ich rufe nochmals zur Diskussion auf!

Literatur:

[1] Michael Schnell, Hermann Harde: „Gibt es einen Atmosphärischen Treibhauseffekt? – Teil 1“, EIKE, 30.03.2024.

[2] Hermann Harde, Michael Schnell: „Gibt es einen Atmosphärischen Treibhauseffekt? – Teil 2“, EIKE, 31.03.2024.

[3] Roth, E. (2019): „Probleme beim Klimaproblem – Ein Mythos zerbricht.“ BoD-Verlag Norderstedt 2019, ISBN 978-3-7481-8275-7, E-Book 978-3-7494-0328-8.

[4] Roth, E. (2022): „Das große Klimarätsel: Woher kommt das viele CO2?“ BoD-Verlag Norderstedt 2022, ISBN 978-3-7562-2033-5, E-Book 978-3-7562-5347-0.

[5] Roth, E. (2023): “Climate: Man or Nature? A Contribution to the Discussion.” Science of Climate Change, Vol. 3.5 (2023), pp. 521-542, https://doi.org/10.53234/scc202310/40.

[6] Roth, E. (2024): “The Physics of the Carbon Cycle: About the Origin of CO2 in the Atmosphere”, DOI: 10.22541/au.171053031.12464953/v1.