CO2 hat keinen Einfluss auf die Klimaerwärmung! Dr. Bernhard Strehl bei Youtube

von Michael Limburg

Das Youtube Portal HKCM mit über 400.000 Folgern hat immer mal wieder interessante Gäste zu Besuch, die zu den tagesaktuellen Themen, oft gegen den Strich gebürstet, Stellung nehmen. HKCM steht für Hopf-Klinkmüller Capital Management GmbH & Co. KG und verkauft an Finanzinvestoren Analyse und Finanztools. In den letzten Monaten hat HKCM immer wieder von sich reden gemacht, weil sie der offiziellen Klimawissenschaft nachhaltig in die Parade fahren. So ist bspw. auch Prof.Dr. Lüdecke bei ihnen zu Gast gewesen, ebenso wie Prof. Dr. Wiesendanger oder Prof. Vahrenholt. Alle Videos erreichen in der Regel 250.000 oder sogar 350.000 oder mehr Aurufe. So auch das Video was wir hier zeigen

„CO2 hat keinen Einfluss auf Die Klimaerwärmung! Behauptet Klimaforscher Dr. Bernhard Strehl“

Auch dieses Video hatte bisher 359.845 Aufrufe vor 7 Tagen, wobei man mit Reichweitenangaben von Youtube vorsichtig sein soll, denn bereits nach 2 Tagen hatte dieses Video – so meine Information- bereits ein Aufruf von über 390.000 Aufrufen, wurde aber kurze Zeit später von Youtube auf 325.000 wieder zurückgestuft. Der Teufel wird wissen, was dafür der Antrieb ist.

Der Knüller an diesem Video ist, dass Bernhard Strehl, seines Zeichens Physiker, sich den Beweis zutraut, dass CO2 keinen Einfluss auf die Klimaerwärmung hat, und er dies auch noch beweisen will. Schaut man sich dieses Video an, dann erfährt man sehr schnell, dass der Einfluss des Menschen doch wohl noch da ist, aber nach Meinung von Dr. Strehl eigentlich völlig unerheblich. Er sieht eine Verdopplungsrate (ECS) von nur noch 0,5 und beweist dies durchaus überzeugend.

Und Dr. Strehl zeigt das anhand von ganz typischen physikalischen Vorgängen, wie sie die Klimawissenschaft derzeit immer und immer wieder anbietet.

Ich habe mir das Video in voller Länge anschaut und stimme mit Herrn Strehl, was seine Endaussage andeutet, ohne jede Einschränkung, zu. Wenn überhaupt, dann hat der Mensch nur einen extrem geringen Einfluss auf das „Weltklima“, bspw. über das von ihm erzeugte CO2. Allerdings denke ich, dass der „Treibhauseffekt“ für diese Beweisführung völlig ungeeignet ist, denn in der Form, wie er dort beschrieben ist, existiert er einfach nicht. Man kann ihn weder messen, noch sonst wie beobachten, er ist nur ein völlig aus der Luft gegriffener Effekt. Warum ist das so?

  1. Der hier vorgestellte Effekt hat als Hauptparameter die merkwürdige Mitteltemperatur der Atmosphäre. Nur hat die den Nachteil, dass man sie nicht messen kann. Die Atmosphäre hat, egal wo man misst, eine Temperatur, die von der äußeren Umgebung und vom Inhalt der Stelle wo man misst, abhängt. Und sie ist zudem auch noch eine intensive Größe. Und niemand kann daraus eine Mitteltemperatur bilden. Auch bei Vereinfachungsgründen, bei denen man leichter rechnen kann, verbietet sich das hier. Denn eine Welt, auf der die eine Hälfte immer im Winter ist, während die andere Hälfte immer Sommer hat, ist eine Mitteltemperatur immer ein Unding. Und noch schlimmer wird, wenn man weiß, dass die Unterschiede zwischen den Temperaturen bis zu 160 Kelvin reichen, bei Mitteltemperaturen zwischen den Klimazonen, die man aus Vereinfachungsgründen durchaus rechnen kann, liegt der Unterschied immer noch bei 65 Kelvin. Und weil Temperatur eine intensive Größe ist, würde eine Mitteltemperatur bedeuten, das von einer Stelle die Temperatur einer anderen Stelle abhängt. Etwas was die Temperatur eben nicht kann. Und die dann noch auf 1/10 Grad zu berechnen, wenn die Ausgangstemperaturen bestenfalls im vorigen Jahrhundert auf ± 2 Kelvin bekannt ist, macht das Ganze auch nicht besser.
  2. Ebensowenig ist die Argumentation zu verstehen, dass es sich bei dieser „Mitteltemperatur“ um eine von den Treibhausgasen erzeugte Temperatur handelt. Denn, wie der Autor schreibt, würde die „Temperatur“ der Atmosphäre der Erde noch „unsere“  15 ° C haben. Das kann man zwar so rechnen, aber dadurch wird es nicht richtiger. Denn wir haben keinen Planeten ohne Atmosphäre, und können daher nicht wissen, ob die dort bei – 18 ° C liegen würde. Was wir aber haben ist der Mond, ohne jede Atmosphäre, und dort müsste man nach den Strahlungsgesetzen eine „Mitteltemperatur“ von ca. 270 K finden. (Auch hier ist das ein rein rechnerischer Vorgang, den messen kann man sie auch dort nicht). Das ist aber keineswegs der Fall, sondern man hat dort eine „Mitteltemperatur“ von ca. 190 K bis 200 K. (Siehe auch die Analysen unter anderem von Kramm, Dlugi und Zelger (2009)[1][2] oder etwa Nikolov und Zeller 2012 [3]

Im übrigen gibt es noch viel weitergehende Widerlegungen der dort vorgestellte Treibhausphysik. Wer dazu Näheres wissen will, ist auf mein Buch : „Die Treibhaushypothese. Alles Schall und Rauch“ hingewiesen, dass sie hier erwerben können.

Das mag erstmal genügen, aber von der Bewertung und vielen anderen Gesichtspunkten ist dem Vortragenden zuzustimmen.

 

  1. Vgl. Gerhard Kramm/Ralph Dlugi/Michael Zelger: Comments on the “Proof of the atmospheric greenhouse effect”, 2009, S. 15, www.arxiv.org  
  2. Für Details zur Bestimmung dieses Wertes siehe Gerhard Kramm et al.: „Using Earth’s Moon as a Testbed for Quantifying the Effect of the Terrestrial Atmosphere“, in: Natural Science 2017, S. 251-288.
  3. Ned Nikolov/Karl Zeller: Unified Theory of Climate: Reply to Comments Part 1: Magnitude of the Natural ‘Greenhouse’ Effect, 2012.

 




Die Bundesregierung und ihre Beantwortung der simpelsten Sache der Welt: Wie genau ist die Bezugstemperatur für die Weltmitteltemperatur?

Die genaue Antwort ist: Wir wissen es nicht! Und es interessiert uns auch nicht!

Von Michael Limburg

Immer mal wieder versucht die Fraktion der AfD im Deutschen Bundestag der Regierung die Antworten zu bestimmten, auch klimabezogene, Antworten zu entlocken. Die Bundesregierung hat dann 14 Tage Zeit diese zu beantworten, im Normalfall werden dann auch mal 6 Wochen daraus. Jetzt war wieder so ein Fall, denn zum dritten Mal werden die Fragen nach der Bezugstemperatur gestellt, immer in Verbindung mit den genauen Stellen, wie denn, oder woher die Antworten kommen sollten, oder woher die Bundesregierung sie hat. Das ist auch jetzt wieder der Fall, und wir verwenden diese Kleine Anfragen, um die darin enthalten Fragen und Antworten aufmerksam zu machen.

Zunächst einmal daraus zunächst ein Teil der Fragestellung:

…Doch obwohl die Fragesteller die Fragen zur Höhe der Bezugstemperatur, ebenso wie nach ihrer präzisen Bestimmung mit der nötigen Genauigkeit in „vorindustrieller Zeit“ so der Wortlaut der Pariser Klimaübereinkunft, der Bundesregierung schon des Öfteren gestellt haben, zuletzt mit einer Nachfrage (Bundestagsdrucksache 19/13534) vom 25. September 2019, war auch die darauf erteilte Auskunft nach Meinung der Fragesteller größtenteils ausweichend sowie teilweise falsch und verfehlte damit ihren Zweck….

Frage:

Wie hoch ist nach Kenntnis der Bundesregierung die genaue (bitte auf 2 Stellen hinter dem Komma

angeben) absolute globale Mitteltemperatur in Kelvin und in °C in vorindustrieller Zeit?

a) Wenn sie später bestimmt wurde, wie genau wurde sie gemessen?

b) Wie viele Stationen waren beteiligt?

c) Wo standen diese Stationen und welche Flächen in Prozent der Erdoberfläche deckten sie ab?

Antwort Bundesregierung Teil Nr. 1

„Die genaue absolute globale Mitteltemperatur in vorindustrieller Zeit auf zwei Stellen hinter dem Komma zu bestimmen, erscheint nicht sinnvoll, da es nur wenige direkte Messungen aus dieser Zeit gibt. Wissenschaftlerinnen und Wissenschaftler verwenden daher verschiedene anerkannte Methoden, um die globalen Temperaturen in der Vergangenheit zu rekonstruieren, zum Beispiel Modellberechnungen und Proxy-Daten, unter anderem aus Eisbohrkernen und Baumringen.“

Erläuterung:

Die genauere Temperatur der Atmosphäre des Planeten Erde zu bestimmen ist zunächst einmal ein Ding der Unmöglichkeit, denn die Temperatur hängt sowohl von den Erwärmungsquellen, wie von der physikalischen Beschaffenheit der Messstelle ab bei der gemessen wurde. Zudem ist Temperatur eine intensive Größe (intensiver Größe, was ist das das?) anders als beispielsweise das Volumen der Messstelle. Deswegen ist eine Temperatur an die Messtellenbereich gebunden.

Ferner gibt es für die Erde keinerlei passenden Maßstab. Nur wenige Eisbohrkerne auf der Antarkis und der grönländischen Seite, sowie die Baumringdaten auf bestimmten Höhenlagen, gibt es keine sachdienlichen Hinweise auf die Temperatur (auch nicht in 2 m Höhenlage über dem Grund) in diesen Zeiten. Damit ist eine Temperatur, die alles beschreibt, eine Ding der Unmöglichkeit. Und ebenso noch ist die Temperatur in 2 Stellen hinter dem Komma zu beschreiben, ebenfalls ein Ding der Unmöglichkeit. Weder was die Zahl der Messtellen anbelangt, wie an deren Endergebnis. Auch die dem ganzen zugrunde liegende Arbeit von James Hansen und Sergej Lebedeff [1], dass die Umgebung um bis zu 1200 km von Ursprungsort „erstaunlich“ korreliert sein sollen, erfährt seine Begründung dadurch, dass beide Forscher die Korrelationskoeffienten extrem weit auslegt wird. Zwischen 0,5 bis 0,3 je nachdem von „high latidude“ oder „low latidude“ die Orte bis zu 1200 km entfernt voneinander liegen. Damit ist die ganze Erde, jedenfalls die von den 29 % der Landmassen dieser Erde berechenbar, glauben diese Wissenschaftler, und wissen nicht, dass die [2]„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.
In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten? Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).
Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.
Was ergibt sich daraus?
Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.“

Damit ist zumindest die Frage beantwort, dass es weder sinnvoll noch sonst wie irgendwie vernünftig ist, sich mit der Temperatur des Planeten zu beschäftigen, sondern bestenfalls mit den verschiedenen Klimazonen.

Und es ist auch nicht vernünftig sich mit der Frage zu beschäftigen, ob die Zeiten vor 1850 auch genauso wie diese, in diese Zeiten passen. Dazu sehen wir Teil 2 der Antworten:

Antwort der Bundesregierung Teil 2:

„Je nach Berechnungsverfahren und der verwendeten Datenbasis reichen diese Zeitreihen unterschiedlich weit in die Vergangenheit zurück. Aufgrund der unzureichenden systematischen Messungen vor dem Jahr 1850 und den damit verbundenen Unsicherheiten wird für die Berechnung eines globalen Temperaturmittels oft eine Referenzperiode von 1850 bis 1900 gewählt. Vorliegende Daten und Berechnungen zeigen, dass das Klima in diesem Zeitraum dem Klima vor dem Jahr 1750 sehr nahekommt. Daher ist es wissenschaftlich gerechtfertigt, dass im Kontext des Weltklimarates (IPCC) der Zeitraum von 1850 bis 1900 (manchmal auch von 1880 bis 1910) als vorindustrieller Referenzeitraum verwendet wird.“

Erläuterung:

Auch diese Antwort ist falsch. Denn sie beschreibt einen Verlauf der „Mitteltemperatur“ der Erde, der nicht im entferntesten dem entspricht, was die von 1850 bis 1900 zum Inhalt haben.

Ein Bild, das Text, Diagramm, Reihe, Schrift enthält. Automatisch generierte Beschreibung

Temperaturentwicklung nach Ljungquist 2010.

Glaubt man den „Mittelwerten“ so siedelt man diese 0 bis 2010 etwa diesen Werten zu. Bespw. war um 1600 die Temperatur immer noch so eisig, dass die Temperatur um -0,6 ° zu gering war. Dann hatten wir um 1700 einen Tiefpunkt von ca. -0,7 Kelvin, der erst um 1750 von einem weiteren, höheren Tiefpunkt von -0,3 Kelvin abgelöst wurde. Von da an wurde mit An- und Abstiegen ein Anstieg von ca. + 0,1 erreicht. Das Ganze gab es in der Zeit vor 1750 nicht, das war alles grottenkalt.

Die Wärmephase der römischen Warmzeit und vor allem mittelalterliche Warmzeit waren danach noch höher.

Danach ist deutlich, dass auch hier die Bundesregierung gelogen hat, denn sie war von einem „dass das Klima in diesem Zeitraum dem Klima vor dem Jahr 1750 sehr nahekommt“ ausgegangen, das Gegenteil ist der Fall.

 

Die Frage nach der Mitteltemperatur:

Auch die von der Bundesregierung genannten Quellen, für die von ihr genannten Mitteltemperatur sind falsch, den der zugrunde liegende Datensatz enthält nicht nur um die 200 bis 1500 Messtationen, die aber von nur 100 bis 500 Gitterboxen stammen, davon der Löwenanteil in den USA und Central-Europa.

Ein Bild, das Diagramm, Text, Reihe, weiß enthält. Automatisch generierte Beschreibung

Wie dann der Vergleich zwischen den Werten von 1750 und der heutigen Zeit passierte, ohne dass man für beide Bereiche eine genaue Zahl angibt, auf die diese Berechnung folgt, nach wie vor unverständlich. Immerhin hat die Bunderegierung in dieser dritten Kleine Anfrage zu Thema nicht nur die Zahlen von Frage 1 geleugnet, sie hat auch wiederholt erklärt, dass die zuvor von den Fragestellern genannten Fragen falsch seien,

Antwort der Bundesregierung

„Der Bundesregierung ist eine „als ideal empfundene Mitteltemperatur von exakt 15°C“ nicht bekannt und sie verwendet diesen Begriff auch nicht. Daher sind auch keine Unternehmungen geplant, die auf das Erreichen einer „als ideal empfundenen Mitteltemperatur‟ von 15°C abzielen.“.

Erläuterung

Das ist zwar ganz am Anfang mit von den Fragestellern großem Aufwand geschehen, und das die Bundesregierung auf das alles keine Rücksicht mehr nimmt, aber was jetzt folgt setzt den Ganzen die Krone auf, denn sie leugnet um jeden Preis jegliche Festlegung einer globalen Mitteltemperatur .. weil sie

Antwort der Antwort der Bundesregierung

„Die Bundesregierung ist der Ansicht, dass die von den Fragestellenden behauptete Tatsache nicht zutrifft. Die als Belege angeführten Links zu Quellen von WMO und NASA sind fehlerhaft (Einführung der Redaktion: Das sind sie nicht). Die übrigen aufgeführten Quellen können nach Ansicht der Bundesregierung nicht als wissenschaftlich fundierte Grundlagen für die Berechnung von Klimaentwicklungen gelten.

Auf die Antwort auf Frage 1 wird verwiesen.

Im Übrigen stellt die Bundesregierung klar, dass zahllose seriöse Studien und aktuelle wissenschaftliche Beobachtungen eine dem von den Fragestellenden behaupteten Trend gegenläufige Tendenz zeigen. (Vgl. beispielhaft den Sechsten Sachstandsbericht des IPCC, insbesondere den Teilbericht der Arbeitsgruppe I. Dieser fasst den Stand der Wissenschaft zu diesem Thema auf denkbar breitester Grundlage zusammen.)“

Erläuterung

Mit anderen Worten, wir wissen es nicht! Und es interessiert uns auch nicht!

  1. 1 Global trends of measured surface air temperature: James HansenSergej Lebedeff https://doi.org/10.1029/JD092iD11p13345
  2. https://eike-klima-energie.eu/2011/02/22/von-korrelationen-trends-und-anomalien/



ENDE DER FAHNENSTANGE

von Hans Hoffmann-Reinecke

Wenn die Menschheit demnächst sich dessen gewahr wird, dass sie Corona überlebt hat, dann werden Politik und NGOs neue, und noch schlimmere Szenarien zum Klima auspacken. Ein bekannter Physiker hat nun errechnet, dass zusätzliches CO2 kaum weitere Erwärmung verursachen wird.  Natürlich wird er vom Establishment diskreditiert und angefeindet. Aber vermutlich kann ein Physiker, auch wenn er kein Diplom in Sachen Klima hat, wesentlich mehr zu dem Thema beitragen, als zertifizierte Klimaforscher, die nichts von Physik verstehen.

Wellenlängen und Nobelpreise

Jeder Gegenstand strahlt permanent Energie ab; er glüht gewissermaßen, auch wenn wir das nicht immer sehen. Das „Licht“, welches der Körper von sich gibt, ist für unsere Augen nicht wahrnehmbar. Erst wenn wir den Gegenstand auf ca. 500°C erhitzen, dann sehen wir ein rötliches Leuchten. Ab jetzt beinhaltet seine Strahlung auch Wellenlängen, für die unsere Augen gebaut sind, und erst einmal ist das rot. Die längerwellige, unsichtbare Strahlung, die vorher schon üppig da war, wird als Infrarot bezeichnet, sozusagen „Unter-Rot“.

Der alte weiße Mann Max Planck hat sich über diese Verteilung der Wellenlängen den Kopf zerbrochen und bekam dafür 1918 den Nobelpreis; nebenher trat er dabei auch die Entwicklung der Quantenphysik los.

Vortrag von Will Happer am 21.6.21 im Umweltausschuss zur Sättigung nach Planck & Schwarzschild der CO2 Infrarotaufnahmefähigkeit

Während unser Gegenstand also vor sich hin strahlt verliert er Energie, und zwar umso mehr, je heißer er ist; d.h. er kühlt sich ab. Wie kalt würde er, wenn er ganz alleine für sich im Vakuum des Weltalls unterwegs wäre? Er würde sich langsam aber sicher dem absoluten Nullpunkt nähern, das sind -273°C.

Das freundliche Zentralgestirn

Aber Moment, wir sitzen doch alle auf einer Kugel, die durchs Vakuum des Weltraums fliegt und per Infrarot jede Menge Energie abstrahlt– und diese Kugel wird keineswegs kälter! Im Gegenteil; uns wird doch laufend gepredigt, dass die sich über alle Maßen erwärmen wird, wenn wir nicht sofort aufs Lastenfahrrad umsteigen und unsere Flugreisen stornieren.

Der Grund ist: wir sind nicht mutterseelenallein im All. Da ist die liebe Sonne, die uns zuverlässig mit ihrer freundlichen Strahlung verwöhnt. Sie führt uns großzügig Wärme zu, die genau so bemessen ist, dass die von der Erde in Form infraroter Strahlung abgegebene Energie andauernd ersetzt wird.

Das ist nun wirklich rücksichtsvoll von der Sonne, oder? Nun die Erde hilft dabei mit. Würde die Sonne uns weniger Energie spenden, dann würde auch die Erde ihre eigene Strahlung reduzieren, bis wieder Gleichgewicht herrscht; sie würde einfach ihre Temperatur herunter drehen.

Also, und das ist wichtig: die mittlere Temperatur der Erde wird sich immer so einpendeln, dass die abgestrahlte Energie auf die Dauer gleich der von der Sonne empfangenen ist.

An der Temperatur braucht man nur ein kleines Bisschen zu drehen und die Strahlung ändert sich gleich gewaltig. Würde die Erde nur von 15°C auf 5°C abkühlen, dann ginge die abgestrahlte Energie um 20% zurück. Das ist eine ganze Menge.

Die Pandemie-freundlichen, kontaktlosen Fieberthermometer übrigens nutzen diese Temperatur-Sensibilität, um an der IR Strahlung unserer Haut den winzigen Unterschied zwischen 36,0 und 36,5°C zu erkennen. Die mathematische Beschreibung dafür ist, dass die Strahlungsleistung proportional zur vierten Potenz der absoluten Temperatur ist.

Sie fragen, was das alles mit Klimawandel zu tun hat? Da geht es doch um CO2 & Co. Einverstanden, ich schlage vor, wir schauen und das mal an.

 

Packman, der Photonenschreck

Wir hatten so salopp von der IR-Strahlung gesprochen, welche Energie von der Erde in den Weltraum trägt. Das ist aber nicht so einfach, denn die Strahlen müssen sich ihren Weg erst durch diverse Luftschichten bahnen, vorbei an Molekülen unterschiedlichster Bauart. Die meisten dieser Moleküle sind harmlos, aber unter ein paar Tausend ist auch eines vom Typ „Packman“; das schnappt sich ein Lichtteilchen, ein so genanntes Photon, so wie sich der gute alte Packman ein Pixel schnappte.

Unter den unendlich vielen verschiedenen Photonen, die vorbeirauschen, schnappen sich diese Moleküle nur solche, die eine ganz bestimmte Energie haben, d.h. die zu einer ganz bestimmten Wellenlänge gehören. Nach einer kurzen Weile lassen sie das Photon dann wieder frei. Dieses fliegt ganz erlöst davon, mit Lichtgeschwindigkeit, aber in irgendeine Richtung – nicht unbedingt Richtung Weltraum. Und so wird ein gewisser Anteil dieser Photonen niemals seinen Weg ins All finden. Ihre Energie bleibt letztlich in der Atmosphäre hängen.

Napoleon hatte kein Problem

Die Packman Moleküle, von denen wir hier sprechen, sind vom Typ CO2. Deren Konzentration ist seit vorindustrieller Zeit, etwa seit Napoleon, bis heute um 40% angestiegen: von 280 CO2 Molekülen unter einer Million Luftmolekülen auf gut 400. Eine plausible Erklärung dafür ist der Verbrauch fossiler Brennstoffe durch die Menschheit. Da wird Kohlenstoff, der seit Äonen unter Tage ruhte, an die Oberfläche gebracht und zu CO2 verbrannt, welches in die Luft entweicht.

Wenn nun die Energie, die wir laufend von der Sonne bekommen, nicht mehr so leicht ins All abgestrahlt werden kann wie früher, dann wird die Erde sich erwärmen, um mehr Photonen auf die Reise zu schicken. Sie wird sich so weit erwärmen, bis genügend Photonen an den Packman Molekülen vorbei ihren Weg in den Weltraum finden, und damit die Energiebilanz der Erde wieder ausgeglichen ist.

Das ist des Pudels Kern in Sachen Global Warming.

Der Temperaturanstieg betrug seit Napoleon ca. 1,5°C, wobei die Zunahme in den vergangenen 50 Jahren stärker war. Und auch wenn diese Erwärmung wohl kaum von jemandem als Problem wahrgenommen wurde, so ist da die legitime Frage: wie soll es weiter gehen? Die Apokalyptiker der Klimaszene wissen natürlich, dass jedes zusätzliche Molekül CO2 in der Atmosphäre nur den Untergang bringen kann. Mathematische Betrachtungen aber zeigen, dass bereits heute vermutlich das Ende der Fahnenstange in Sachen Erwärmung durch CO2 erreicht ist.

Der Wald und die Bäume

Stellen Sie sich vor, jemand schießt mit einem Gewehr auf eine Baumgruppe. Da werden einige Kugeln in den Stämmen abgefangen und andere fliegen vorbei. Ein bestimmter Prozentsatz der abgefeuerten Geschosse wird also auf der anderen Seite herauskommen. Wenn Sie jetzt die Bäume immer dichter aufstellen, dann kommen irgendwann gar keine Kugeln mehr durch. Und wenn Sie jetzt die Dichte der Bäume weiter verdoppeln, dann ändert sich nichts mehr am Ergebnis: keine Kugel kommt mehr durch.

So ist das auch mit den Photonen (= Geschossen) und den CO2-Molekülen (= Bäumen). Die Konzentration von CO2 ist heute schon hoch genug , dass die Photonen aus dem besagten engen Energieband kaum noch durchkommen. Würde sich also die CO2-Konzentration von aktuell ca. 400 ppm auf 800 ppm verdoppeln (auch dann hätten wir nicht einmal ein einziges CO2 unter tausend Luftmolekülen), dann hätte das auf die globale Temperatur kaum eine Auswirkung. Aber bevor wir bei den 800 ppm ankommen, würden uns vermutlich die fossilen Brennstoffe ausgehen.

 

Eine gute Nachricht, aber nicht für jeden

Dazu hat der Physiker William Happer genauere Rechnungen angestellt. Er ist ein renommierter Experte auf den Gebieten Atomphysik, Optik und Strahlung. Unter anderem erfand er den „Laser Guide Star“, ein Instrument, welches der Astronomie hilft, die Störungen ihrer Beobachtungen durch die Ablenkung des Lichtes in der Atmosphäre zu korrigieren.

Professor Happer hat also gerechnet und kam zu dem Ergebnis, dass die globale Temperatur ganz ohne CO2 (und andere Treibhausgase) bei neun Grad Celsius unter Null läge (Hier sein Vortrag), weil die Abstrahlung ungehindert ins All ginge. Diesen Planeten Erde hat es vermutlich nie gegeben, ein Leben auf ihm wäre jedenfalls nicht möglich gewesen – aus diversen Gründen.

Die heutige mittlere Temperatur mit der aktuellen CO2-Konzentration ist 15°C, und würde sich die Konzentration verdoppeln, dann würde es nur um weniger als ein Grad wärmer! Das ist doch eine gute Nachricht; nur ein Bruchteil von einem Grad ist also der Worst Case in Sachen Global Warming. Dafür ruinieren wir heute die Wirtschaft der westlichen Welt, dafür traumatisieren wir unsere Schulkinder, dafür verunstalten wir die Landschaft mit Windmühlen und Photovoltaik, dafür finanzieren wir einen milliardenschweren Klimazirkus.

Natürlich wird Happer von Klima-Establishment angefeindet, und wie üblich kritisiert man ihn persönlich und nicht seine Forschung. Man wirft ihm vor, dass er die Regierungen Bush und Trump beraten hat. Und er sei kein Klimaforscher, sondern nur Physiker. Aber ich glaube, dass ein Physiker, der kein Diplom in Sachen Klima hat, wesentlich mehr zu dem Thema sagen kann, als zertifizierte Klimaforscher, die nichts von Physik verstehen.

(Die hier wiedergegebenen Überlegungen beziehen sich auf ein Szenario,

  • In dem man so etwas wie eine „mittlere Erdtemperatur“ T messen kann;
  • Dass T in den vergangenen Jahrzehnten angestiegen ist;
  • Dass die Zunahme von CO2 in der Atmosphäre die wesentliche Ursache dafür ist.

Keine dieser Thesen ist aus wissenschaftlicher Sicht bewiesen, aber sie sind das Fundament, auf dem die heutige Klimapolitik aufbaut. Mein Artikel soll beschreiben, dass auch innerhalb dieses – keineswegs gesicherten – Szenarios die Prognose eines bedrohlichen Temperaturanstiegs alles andere als plausibel ist).

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazonerhältlich.




Die Klimaschau von Sebastian Lüning: Angekündigte aber nicht eingetretene Klimaapokalypsen




Globale Mitteltemperatur steigt an? Nicht im Oktober 2020

Der 25. Solarzyklus ist im Oktober mit einer starken Entwicklung der Sonnenflecken in Erscheinung getreten. Lag die Sonnenfleckenzahl im September noch bei 0,7, belief sie sich im Oktober schon bei 14,4. Es wird nun spannend, zu verfolgen, ob der Zyklus so schwach wird, wie prognostiziert.

Die Energiewende wird an der Windenergie scheitern

Die Ziele der deutschen Energiewende sind energiepolitisch schlicht: Nach dem Ausstieg aus der Kernenergie bis 2022 folgt der Ausstieg aus der Kohle bis 2035, parallel und vollständig bis 2050 erfolgt der Verzicht auf Öl und Gas. Die Energie für Strom, Wärme, Mobilität und Industrielle Prozesse des klimaneutralen Deutschland sollen geliefert werden durch Windenergie, Solarenergie und wenige Prozente an Wasserkraft und Biomasse, so jedenfalls die Pläne der Bundesregierung, die von allen wesentlichen gesellschaftlichen Akteuren unterstützt werden.

Ist das realistisch?

Heute liefern Wind und Photovoltaik etwas weniger als 30 % der 600 Terawattstunden an Strom (1 Terawattstunde Twh sind 1 Milliarde Kilowattstunden Kwh). 126 Twh liefert die Windenergie und 46 Twh die Photovoltaik.

Für 600 TWh werden bei gleichem Mix 439 Twh Wind und 161 Twh Solar benötigt. Wir nehmen der Einfachheit halber an, dass diese Menge an Strom mit den größten Anlagen, nämlich 5 Megawatt-Anlagen erzeugt werden solle, die in einem Abstand von 1000 m platziert werden. Bei einem Jahresnutzungsgrad von 25 % produziert eine Anlage durchschnittlich 5 MW x 0,25 x 8760(Stunden) = 10950 Mwh =0,01095 Twh. Für 439 Twh benötigt man also 40 000 Anlagen. Dafür benötigt man eine Fläche von 200 km x 200 km.

Aber wir sind noch nicht am Ende.

Die Windenergie wird produziert, wenn der Wind bläst, nicht wenn der Verbraucher ihn benötigt. Bei einer Stromversorgung in Deutschland, die sich allein auf volatile Quellen stützt, können 36 % des jährlich erzeugten Stroms direkt verbraucht werden (Quelle: Dr. Ahlborn). Der Rest ist Überschusstrom, der gespeichert werden muss. Hier bietet sich aus wirtschaftlichen Gründen allein die Speicherung in Wasserstoff an. Dazu müssen eine gigantische Zahl an Elekrolyseuren errichtet werden. Es ist aber völlig unwirtschaftlich, die Kapazität nach den extremen Spitzen der Starkwindereignisse zu dimensionieren, daher müssen etwa 12 % der Windenergie abgeregelt werden. So verbleiben 52 % des erzeugten Stromes, der in Wasserstoff gespeichert werden kann. Durch Elektrolyse von Wasserstoff, Speicherung/Methanisierung und Rückverstromung bleiben von den 52 % nur 15,6 % übrig. Die Kette erzeugt einen Verlust von 2/3 der eingesetzten Strommenge.

36 % plus 15,6 % ergeben rd. 50 % des erzeugten Windstroms, die nutzbar sind. Wir brauchen also doppelt so viele Anlagen. Die Fläche für die 80 000 Windkraftanlagen beträgt 80 000 km², das entspricht einer Fläche von sind 283 km x 283 km.

Aber wir sind noch nicht am Ende.

Bislang haben wir mit 2 x 439 Twh nur den Strombedarf, aber nicht Verkehr und Wärmeversorgung abgedeckt.

Auch beim Verkehr (heute 600 Twh) und Wärme(heute 1200 Twh) gibt es Speicher- und Umwandlungsverluste, wenn der dafür notwendige Strom durch Wind und Solar erzeugt wird.

Wir betrachten hierfür nur noch den Wind, denn bei der Photovoltaik ist der Jahresnutzungsgrad mit 10 % Jahresvolllaststunden deutlich kleiner und der Flächenverbrauch um ein Vielfaches höher.

Wir nehmen zugunsten der Energiewendeplaner an, dass der Verkehr tatsächlich durch Batterieautos erfolgen kann, woran füglich gezweifelt werden kann. Schwerlastverkehr, Schiffsverkehr oder den Flugverkehr auf Strom umzustellen, ist schon abenteuerlich. Eher werden hier synthetische Kraftstoffe eingesetzt werden müssen. Aber auch hier ist die Strombilanz vernichtend. Wie Detlef Ahlborn zeigen konnte, verbraucht allein der Frankfurter Flughafen vor Corona 14,7 Millionen Liter Kerosin am Tag, das sind umgerechnet 4,3 Millionen Tonnen im Jahr. 4,3 Millionen Tonnen Kerosin entsprechen einem Energiewert von 47 Twh. Wollte man Kerosin aus Strom mit Hilfe von Wasserstoff synthetisieren (angenommener Wirkungsgrad 50 %) , werden also 100 Twh Strom benötigt. Allein für den Frankfurter Flughafen also fast so viel, wie die deutsche Windenergie heute erzeugt (126 Twh).

Wir nehmen zugunsten der Energiewende-Vertreter an, dass sich sämtlicher Verkehr mit Strom durchführen lässt und somit nur ein Viertel der heute von 600 Twh verbrauchten Energiemenge benötigt wird (da Stromautos um diesen Faktor effizienter sind) So werden aus 600 Twh 150 Twh. Wir wollen allerdings auch Auto fahren, wenn kein Wind weht. Daher muss auch dieser Strom, wie oben gezeigt, größtenteils über die Kette Wasserstoff, Speicherung, Wiederverstromung geführt werden, so dass sich der Strombedarf verdoppelt: 300 Twh.

Wir nehmen weiter an, dass sich der heutige Wärmebedarf von 1.200 Twh durch Elektrifizierung (Wärmepumpe) auch auf ein Viertel reduzieren lässt, so dass auch hier wegen der notwendigen Zwischenspeicherung des Windstroms über Wasserstoff die notwendige Verdoppelung der Windenergie zu 600 Twh führt. Nützt man synthetisches Gas aus Windstrom/Wasserstoff/Gas direkt, kommt man zu einer noch schlechteren Ausbeute, da hier die Effizienz der Wärmepumpe wegfällt.

Verkehr und Wärme führen also im günstigsten Fall zu einem Windstrombedarf von 900 Twh. Das ergibt einen Flächenbedarf von weiteren 80 000 km², so dass wir bei 160 000 km² angekommen sind.

Aber wir sind noch nicht am Ende, denn der schwierigste Teil ist noch ungelöst.

Die Prozessemissionen aus Stahl-, Chemie- und Zementindustrie (10 % des CO2-Ausstoßes) erfordern nach Schätzungen der Industrie 600 Twh. Das ist leicht nachvollziehbar, wenn man sich an das obige Beispiel des Frankfurter Flughafens erinnert. Und Kunststoffe, Pharmaka, Dämmstoffe, Farben, Lacke, Klebstoffe, Wasch-und Reinigungsmittel sind dann nur noch auf dem Wege CO2 plus Wasserstoff herstellbar.

Der Ersatz der industriellen CO2-Emissionen führt somit noch einmal zu 55 000 km² Windkraftanlagen, so dass wir bei 215.000 km² angekommen sind. 2/3 von Deutschland sind nun in einem Abstand von 1000m mit 200 Meter hohen Windkraftanlagen bestückt, egal ob da eine Stadt steht, eine Fluss oder eine Autobahn verläuft, ob es dort einen Wald, einen See oder ein Naturschutzgebiet gibt.

Können wir uns, kann die Politik sich ein solches Deutschland vorstellen?

Wer wissen will, welche Auswirkungen Windkraftwerke in großer Zahl auf das Aussterben von Greifvögeln, Fledermäusen, dem Rückgang von Insekten schon heute haben, kann dies in unserem Buch „Unerwünschte Wahrheiten“ nachlesen. Dort findet er auch die verschwiegene Tatsache, dass Windparks zu einer erheblichen Erwärmung in ihrem Einwirkungsgebiet führen von etwa 0,5° Celsius, da die rotierenden Flügel der Windkraftanlagen das starke Temperaturgefälle in der Nacht ausgleichen und wärmere Luft zurück zum Erdboden schaufeln. Zahlreiche Studien belegen eine erhebliche Austrocknung der Böden in den Windfeldern.

Doch die Politik verweigert die Diskussion über die Umweltverträglichkeit eines massiven Ausbaus der Windkraftanlagen. Kürzlich hat der Deutsche Bundestag beschlossen, dass bei Klagen gegen Anlagen, die höher als 50 Meter sind, die sogenannte aufschiebende Wirkung von Widerspruch und Anfechtungsklage entfällt. So kann Deutschland ohne lästigen Widerspruch zu einem einzigen großen Windfeld gemacht werden.

Es ist fast überflüssig darauf hinzuweisen, daß wir über astronomische Kosten sprechen. Elekrolyseure und Power-to-gas-Anlagen sind ja nicht kostenlos zu betreiben. Aus heutiger Sicht muss mit einem zehnfach höheren Strompreis gerechnet werden.

Die Folgen für Arbeitsplätze und Wohlstand kann sich jeder selbst ausmalen.