Offshore-Windenergie: Definitiv teuer!

Wie war diese bemerkenswerte Veränderung in der Wirtschaftlichkeit der Offshore-Windenergie erreicht worden? Niemand wusste es wirklich sicher, doch umweltbewusste Korrespondenten in den Mainstream-Medien bestanden darauf, dass der Wandel real war.

In einer kurze Zeit später veröffentlichten Studie wiesen Gordon Hughes et al. darauf hin, dass es kaum Anzeichen für sinkende Kosten von Offshore-Windparks gebe. Tatsächlich stiegen sie im Allgemeinen, da die Entwickler auf der Suche nach zuverlässigeren Windgeschwindigkeiten in tiefere Gewässer vorstießen. Selbst wenn man solche Faktoren berücksichtigt, scheinen die Kosten für vergleichbare Anlagen nur leicht zu sinken. Es gab absolut keine Anzeichen für revolutionäre Veränderungen. Die Verteidiger der grünen Orthodoxie argumentierten, die Hughes-Analyse sei rückwärtsgewandt und könne technologische Fortschritte nicht berücksichtigen (obwohl sie nie klar gesagt haben, um welche es sich dabei handelte).

Im Gegensatz dazu lautet Hughes‘ Theorie, die in einem späteren Aufsatz skizziert wird, dass die niedrigen CfD-Gebote im Wesentlichen ein Hasardspiel auf die zukünftigen Strompreise sind. Er glaubt, dass die Entwickler hoffen, dass die Strompreise bis zur Inbetriebnahme der Windparks im Jahr 2022 so hoch sein werden, dass sie sich von ihren CfDs verabschieden und stattdessen den Marktpreis nehmen können. Dafür gäbe es nur geringe Kontaktstrafen. Hughes et al. haben weiterhin argumentiert, dass die Kosten der Offshore-Windenergie bis heute sehr hoch sind.

Kürzlich tauchten einige weitere harte Beweise auf, die zeigen, dass Hughes Recht hat. Einer der Niedrigpreis-Windparks hat seine letzten Finanzberichte veröffentlicht, und diese vermitteln ein Gefühl dafür, ob die Kostensenkungen real sind. Moray East ist ein Gigant mit 100 Turbinen und einer Leistung von 950 MW, der sich derzeit vor der schottischen Küste in der Entwicklung befindet. Die Entwickler haben gesagt, dass der Bau 2,6 Milliarden Pfund kosten wird, obwohl diese Zahl mit Vorbehalten versehen ist. Sie beinhaltet mit ziemlicher Sicherheit nicht die Offshore-Übertragungsanlagen, die das Unternehmen bauen muss, und den Rückverkauf an das Netz. Außerdem sind die angekündigten Kosten für Windparks stets zu niedrig angesetzt. Hughes geht davon aus, dass sich die endgültigen Kosten auf etwa 3,8 Milliarden Pfund belaufen werden. Wenn der Windpark einen Gewinn von etwa 60 Pfund/MWh erzielen soll, müssen die Kosten weniger als die Hälfte (bei einer optimistischen Annahme darüber, wie viel Strom er erzeugen wird) und realistischerweise ein Drittel davon betragen.

Zum Jahresende (31. Dezember 2019) befand sich Moray East noch in der frühen Entwicklungsphase. Die Fundamente waren noch nicht ganz fertiggestellt, und die Übertragungsanlagen befanden sich zwar im Bau, waren aber noch lange nicht fertig. Die Leitungen für einen Teil der Kabel waren bereits fertiggestellt. Wie viel dürfte das Unternehmen bis jetzt ausgegeben haben? Ich habe die hier veröffentlichte Kostenanalyse verwendet, um den prozentualen Anteil der einzelnen Hauptkomponenten an den Gesamtkosten zu ermitteln. Dann wandte ich diese an, und eine Schätzung, wie vollständig jede Komponente war, zusammen mit dem Gesamtwert von 3,8 Milliarden Pfund Sterling von Hughes ergab eine Erwartung. Die Antwort: etwas mehr als 1 Milliarde Pfund.

Und die tatsächlichen Ausgaben bis jetzt? 1,2 Milliarden Pfund.

Es scheint daher fast unbestreitbar zu sein, dass es sich um einen Windpark in Höhe von 3,8 Milliarden Pfund handelt und nicht um einen Windpark in Höhe von 1,9 Millionen Pfund (was es sein müsste, um im Rahmen der CfD rentabel zu sein, selbst unter den großzügigsten Annahmen über den Kapazitätsfaktor, den er erreichen könnte).

Man könnte argumentieren, dass meine Vermutungen völlig falsch sind, aber man denke einmal anders darüber nach. Um einen Gewinn von 60 Pfund/MWh zu erzielen, müssen die Kapitalkosten von Moray East deutlich unter 1,9 Milliarden Pfund liegen. Die einzige Möglichkeit, dies zu erreichen, besteht darin, die restlichen Kapitalarbeiten – einschließlich der Turbinen selbst – für 0,7 Milliarden Pfund abzuschließen. Das wird nicht geschehen.

Strom wird entweder sehr, sehr teuer werden, oder bestimmte Investoren in das Offshore-Windgeschäft werden ihr letztes Hemd verlieren.

Link: https://www.thegwpf.com/offshore-wind-definitely-expensive/

Übersetzt von Chris Frey EIKE




Das schmutzige Geheimnis „sauberer“ Elektro­fahrzeuge

Die weit verbreitete Ansicht, dass fossile Brennstoffe „schmutzig“ und erneuerbare Energien wie Wind- und Sonnenenergie sowie Elektrofahrzeuge „sauber“ seien, ist in den entwickelten Ländern zu einem festen Bestandteil der Mainstream-Medien und der politischen Vorgaben im gesamten politischen Spektrum geworden, vielleicht mit Ausnahme der von Trump geführten US-Regierung. In der Tat will man uns glauben machen, dass es die letzte und entscheidende Frage ist, wie schnell aufgeklärte westliche Regierungen, angeführt von einem angeblichen wissenschaftlichen Konsens, in einem Wettlauf zur Rettung der Welt vor der drohenden Klimakatastrophe mit sauberer Energie diese „dekarbonisieren“ können.

Das Mantra „Gesamt-Null bis 2050“, dem zufolge die Kohlenstoffemissionen innerhalb von drei Jahrzehnten vollständig eliminiert werden müssen, ist heute die Klarstellung, die Regierungen und zwischenstaatliche Organisationen in der ganzen entwickelten Welt – von mehreren EU-Mitgliedstaaten und Großbritannien bis hin zur Internationalen Energieagentur und zum Internationalen Währungsfonds – fordern.

Bergbau: Was man nicht weiß, macht einen nicht heiß

Beginnen wir mit Elon Musk’s Tesla, dem Liebling des smarten Sets. Mit einer erstaunlichen Leistung für ein Unternehmen, das im vergangenen Monat zum vierten Mal in Folge einen Quartalsgewinn zum ersten Mal überhaupt erzielte, ist Tesla nun das wertvollste Automobilunternehmen der Welt. Die Nachfrage nach EVs wird steigen, da die Regierungspolitik den Kauf von EVs subventioniert, um den Verbrennungsmotor von Benzin- und Dieselfahrzeugen zu ersetzen, und da der Besitz eines „sauberen“ und „grünen“ Autos für viele tugendbewusste Kunden zu einem moralischen Aushängeschild wird.

Wenn man jedoch unter die Haube von batteriebetriebenen EVs mit „sauberer Energie“ schaut, würde der gefundene Dreck am meisten überraschen. Die wichtigste Komponente in den EVs ist der Lithium-Ionen-Akku, der von entscheidenden mineralischen Rohstoffen wie Kobalt, Graphit, Lithium und Mangan abhängt. Bei der Rückverfolgung der Quelle dieser Mineralien in der sogenannten „Full-Cycle-Economy“ wird deutlich, dass EVs eine breite Spur der Verschmutzung aus dem Abbau und der Verarbeitung der Mineralien erzeugen.

Ein kürzlich veröffentlichter Bericht der Vereinten Nationen warnt davor, dass die in Batterien für Elektroautos verwendeten Rohstoffe stark in einer kleinen Anzahl von Ländern konzentriert sind, in denen es nur wenige oder gar keine Umwelt- und Arbeitsvorschriften gibt. So treibt die Batterieproduktion für Elektroautos einen Boom der kleinen oder „handwerklichen“ Erzeugung von Kobalt in der Demokratischen Republik Kongo an, die zwei Drittel der weltweiten Produktion des Minerals liefert. Diese kleinen Minen, die bis zu einem Viertel der Erzeugung des Landes ausmachen, haben sich als gefährlich erwiesen, und Kinder werden dort zur Arbeit gezwungen.

In Anbetracht dessen, was das Bild von Kindern, die in Afrika mit der Hand Mineralienaus dem Gestein kratzen, für das saubere und grüne Image der High-Tech-Industrie bedeuten kann, vermeiden die meisten Kobalt und andere giftige Schwermetalle verwendenden Technologie- und Autofirmen den direkten Bezug aus Minen. Tesla Inc. schloss letzten Monat einen Vertrag mit dem in der Schweiz ansässigen Unternehmen Glencore Plc. ab, um jährlich bis zu 6.000 Tonnen Kobalt aus dessen kongolesischen Minen zu kaufen. Während Tesla erklärt hat, dass es darauf abzielt, Reputationsrisiken im Zusammenhang mit der Beschaffung von Mineralien aus Ländern wie der Demokratischen Republik Kongo, in denen Korruption grassiert, zu beseitigen, versichert Glencore den Käufern, dass in seinen mechanisierten Minen kein von Hand gegrabenes Kobalt behandelt wird.

Heute gibt es 7,2 Millionen batteriebetriebene EVs oder etwa 1% der gesamten Fahrzeugflotte. Um eine Vorstellung davon zu bekommen, in welchem Umfang Rohstoffe abgebaut werden müssen, um die Benzin- und Dieselfahrzeuge der Welt durch EVs zu ersetzen, können wir uns das Beispiel Großbritanniens ansehen, wie es Michael Kelly, der emeritierte Prince-Philip-Professor für Technologie an der Universität Cambridge, darlegte. Laut Professor Kelly würden wir, wenn wir die gesamte Fahrzeugflotte Großbritanniens durch EVs ersetzen, unter der Annahme, dass sie die ressourcenschonendsten Batterien der nächsten Generation verwenden, die folgenden Materialien benötigen: etwa das Doppelte der weltweiten jährlichen Erzeugung von Kobalt; drei Viertel der weltweiten Erzeugung von Lithiumkarbonat; fast die gesamte weltweite Erzeugung von Neodym; und mehr als die Hälfte der weltweiten Erzeugung von Kupfer, alles jeweils im Vergleich zum Jahr 2018.

Und das gilt nur für Großbritannien. Professor Kelly schätzt, dass falls die ganze Welt auf Elektrofahrzeugen umrüstet, die enorme Nachfrage der oben genannten Rohstoffe weit über die bekannten Reserven hinausgehen würde. Die ökologischen und sozialen Auswirkungen des stark ausgeweiteten Abbaus dieser Materialien – von denen einige hochgiftig sind, wenn sie abgebaut, transportiert und verarbeitet werden – in Ländern, die von Korruption und der Missachtung von Menschenrechten betroffen sind, können nur erahnt werden. Das saubere und grüne Image von Elektrofahrzeugen steht in krassem Gegensatz zu den Realitäten der Batterieherstellung.

Befürworter von EVs könnten erwidern, dass trotz dieser offensichtlichen ökologischen und sozialen Probleme, die mit dem Bergbau in vielen Ländern der Dritten Welt verbunden sind, es weiterhin so ist, dass EVs dazu beitragen, die Kohlendioxid-Emissionen zu reduzieren, die mit den mit Benzin- und Dieselkraftstoffen betriebenen Verbrennungsmotoren verbunden sind. Laut des herrschenden Klimawandel-Narrativs sind es schließlich diese Emissionen, die im globalen Maßstab eine Umweltkatastrophe heraufbeschwören. Um die Welt zu retten, könnten die Klimakreuzritter der reicheren Nationen bereit sein, die lokale Umweltverschmutzung und die Menschenrechtsverletzungen beim Abbau von Mineralien und seltenen Erden in Afrika, China, Lateinamerika und anderswo zu ignorieren.

Während man die inhärente Ungerechtigkeit bei der Auferlegung eines solchen Kompromisses in Frage stellen könnte, werden die vermeintlichen Vorteile von EVs bei der Emission geringerer Kohlenstoffemissionen laut einer von Experten begutachteten Lebenszyklus-Studie, die konventionelle und Elektrofahrzeuge vergleicht, überbewertet. Zum Einen stammt etwa die Hälfte der Kohlendioxidemissionen eines Elektroautos während dessen gesamter Lebensdauer von der Energie, die zur Herstellung des Autos verwendet wird, insbesondere bei der Gewinnung und Verarbeitung der für die Batterie benötigten Rohstoffe. Dies ist ein ungünstiger Vergleich mit der Herstellung eines benzinbetriebenen Autos, das für 17% der Kohlendioxidemissionen während der Lebensdauer des Autos verantwortlich ist. Wenn ein neues Elektroauto in den Ausstellungsraum kommt, hat es bereits 30.000 Pfund Kohlendioxidemissionen verursacht. Die entsprechende Menge für die Herstellung eines herkömmlichen Autos beträgt 14.000 Pfund.

Anmerkung: Dies ist ein Auszug aus einem Rundbrief der GWPF. Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Grüner „Schmutz“?

Sie verbreiten ihre Botschaft durch Schlagzeilen, Artikel, Aussagen und Bilder (viele davon computergestützt), die lebendige, beunruhigende Bilder und Botschaften von (angeblich) bevorstehenden Umweltkatastrophen verbreiten.  Sie betten ihre Botschaft in Filme, Fernsehsendungen, Werbung, Online-Klickköder usw. ein. Beängstigende Szenarien sind der Vorrat im Handel. Die nicht enden wollende grüne Erzählung hat Millionen von jungen Menschen grausame psychologische Schäden zugefügt. Aus Nachrichtenberichten geht hervor, dass 20, 30 oder mehr Prozent der jungen Menschen (Greta Thunberg ist nur die Spitze des Eisbergs) unter klimabedingten Ängsten, Depressionen oder Furcht gelitten haben.

Grüner Schmutz ist produktiv und allgegenwärtig. Seit Jahrzehnten haben die Grünen Millionen von Menschen mit beängstigenden Szenarien und Vorhersagen gequält, die von landwirtschaftlichen Verwüstungen bis hin zu überfluteten Städten reichen – keines davon wird sich erfüllen. Manchmal sind sie absurd widersprüchlich, wie z.B. die Vorhersage von vor einigen Jahrzehnten, dass Großbritannien bis 2020 ein sibirisches Klima haben würde, während der Arktische Ozean eisfrei sein würde (nichts dergleichen ist eingetreten).

Die Grünen haben den Klimawandel als die bisher größte Gefahr für das menschliche Wohlbefinden gehypt. Sie haben geschrien, dass die Welt „gefährlich nahe“ an einem „unumkehrbaren Wandel“ sei. Jeremiads behauptet, die Erde „könnte unerkennbar sein“ (aber beachten Sie das Wackelwort „könnte“). In einem Artikel zu Beginn dieses Sommers wurde verkündet: „Der Klimawandel tötet Amerikaner“ (obwohl der Artikel kaum Beweise enthielt).

Grüner Schmutz nutzt alle Formen von Medien aus. Fernsehsendungen enthalten so bedrückend absurde Dialoge wie: „Wir werden überflutet und verbrennen und verhungern“. In vielen Büchern wird davor gewarnt, dass die Erde „unbewohnbar“ wird, grüne Pornos ergehen sich in wilden Spekulationen über verschiedene Möglichkeiten, wie die menschliche Rasse „ausgelöscht“ werden könnte. Apokalyptische Phantasien sind im Überfluss vorhanden. Realitätsprüfung: Keine dieser übertriebenen Vorhersagen ist auch nur annähernd möglich, es sei denn, ein riesiger Asteroid trifft unseren Planeten, die Plattentektonik der Erde gerät in Krämpfe oder der Sonnenausstoß ändert sich. Mehr CO2 in der Atmosphäre (wo es im Rahmen des lebensrettenden Treibhauseffekts eine relativ geringe Nebenrolle gegenüber Wasserdampf spielt) wird das Leben, wie wir es kennen, nicht beenden.

Grüne Pornos können lächerlich absurd sein. Ein Beispiel: „Experten“-Behauptungen, dass der Anstieg des Meeresspiegels aufgrund des Klimawandels zerstörerischer ist als Atombomben. Ach, wirklich? Eine Atombombe kann Manhattan in einer Minute flach machen, während es bei der derzeitigen Anstiegsrate des Meeresspiegels von sieben Zoll pro Jahrhundert 1200 Jahre dauern würde, bis der Wasserspiegel um sieben Fuß ansteigt, was die derzeit niedrigste Erhebung auf Manhattan Island ist. Bevor Sie vor Furcht vor dem bevorstehenden Untertauchen unter dem steigenden Meeresspiegel zittern, denken Sie an die Prophezeiung eines UN-Umweltbeamten aus dem Jahr 1989, dass „ganze Nationen durch den Anstieg des Meeresspiegels von den Gesichtern der Erde verschwinden könnten, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt wird“. Hoppla. (Übrigens, wenn Sie eine „Greatest Hits“-Zusammenstellung fehlgeschlagener Katastrophen-Prophezeiungen aus dem Bereich grünen Schmutzes lesen möchten, sehen Sie sich die „Wrong Again: 50 Years of Failed Eco-pocalyptic Predictions des Competitive Enterprise Institute an).

Sind Sie, wie ich, ein Tierliebhaber? Dann beunruhigen Sie vielleicht die grünen Behauptungen, wonach bis zu 75 Prozent der Arten dem Untergang geweiht sind und dass in den nächsten 30 oder 40 Jahren jährlich 25.000 bis 30.000 Arten aussterben werden. Solche phantastischen – und phantastisch falschen – Prophezeiungen über das Aussterben von Arten gibt es seit Jahrzehnten. So hat zum Beispiel die grüne Ikone Paul Ehrlich einmal kühn behauptet: „[Bis 1985] wird alles wichtige Tierleben im Meer ausgelöscht sein“. Heute, 35 Jahre nach 1985, liegt die Rate des Artensterbens zwischen zwei pro Jahr und weniger als der Hälfte pro Jahr, je nachdem, wer mitzählt. Fazit: Es gibt keinen Grund, eine massive Aussterbewelle zu befürchten.

Anfang dieses Jahres griff UN-Generalsekretär Antonio Guterres auf grünen Schmutz zurück und erklärte: „Unser Planet brennt, aber zu viele Entscheidungsträger tüfteln weiter. Die Nero-Anspielung ist nett, aber als vernünftige Einschätzung des Zustands des Planeten ist Guterres noch nicht einmal in der Nähe des Spielfeldes.

Die Erde hat sich um ein oder zwei Grad erwärmt, seit sie aus der Kleinen Eiszeit um 1800 auftauchte. Zwei Grad wärmer als eine kleine Eiszeit – die zufällig einige Grad kühler ist als die römische und minoische Periode, in der die Zivilisationen vorrückten – da wird nicht gerade gebraten. Wir sollten für die Erwärmung dankbar sein, die uns aus der Kleinen Eiszeit herausgehoben hat.

Das wirksamste Gegenmittel gegen grüne Pornos ist die Kenntnis einschlägiger Fakten. Man mache sich klar, dass die Anbieter grüner Schmutzfinken, wie die Anbieter aller Pornos, aus den egoistischsten Gründen darin verwickelt sind – Geld, Popularität (wer kann die meisten Augäpfel verführen?) und trendige Ideologie. Wenn Ihnen eine apokalyptische Schlagzeile ins Auge fällt, die das durch den Klimawandel verursachte Ende der Welt verkündet, seien Sie wachsam. Lassen Sie sich nicht von den grünen Pornografen benutzen.

Nachdenken, evaluieren, bewerten – das hassen sie.

Autor: Mark Hendrickson, Ph.D., is an economist who has analyzed the global warming story for 30 years.

Link: https://www.cfact.org/2020/08/02/green-porn/




Europas Wasserstoff-Strategie ins Nichts

Die Europäische Kommission hat ihre Wasserstoff-Strategie im Juli 2020 vorgestellt. Sie ist überzeugt, dass es möglich sein wird, „sauberen“ Wasserstoff zu einer tragfähigen Lösung für eine klimaneutrale Wirtschaft zu machen und eine dynamische Wertschöpfungskette für diese Ressource in der EU aufzubauen. Sie ist sogar überzeugt, dies in den nächsten fünf Jahren zu tun. Die Europäische Kommission ist überzeugt, dass „Wasserstoff von 2025 bis 2030 zu einem festen Bestandteil unseres integrierten Energiesystems werden muss, mit mindestens 40 GW an erneuerbaren Wasserstoff-Elektrolyseuren und der Produktion von bis zu 10 Millionen Tonnen erneuerbarem Wasserstoff in der EU“. Im Jahr 2030 sollte mit erneuerbarer Energie erzeugter Wasserstoff in der gesamten EU eingesetzt werden. Damit folgt sie dem Beispiel Deutschlands, das einen Monat zuvor seine Wasserstoffstrategie gestartet hat. Die Kommission ist sich bewusst, dass dies im Widerspruch zum Marktrecht steht und schlägt daher vor, eine Wertschöpfungskette zu schaffen, indem die Nachfrage nach Wasserstoff angekurbelt wird, die derzeit noch nicht besteht; dies erfordert einen „unterstützenden Rahmen“, d.h. eine Auferlegung des Marktes durch die Politik.

Die falsche Lösung für ein reales Problem

Seit mehr als 40 Jahren fördert die EU erneuerbare Energien zunächst durch die Unterstützung der Entwicklung neuer Technologien, seit 2001 durch die gesetzliche Verpflichtung zur Erzeugung von Strom aus erneuerbaren Energien und ab 2009 auch für andere erneuerbare Energien. Seit 2000 haben die EU und ihre Mitgliedstaaten mehr als 1 Billion Euro ausgegeben, um mit Wind- und Sonnenenergie 2,5% ihres Primärenergiebedarfs zu erreichen. Das Ziel ist nun, bis 2050 100 % zu erreichen. Trotz einer starken Entwicklung im Zeitraum 2008-2015 halten die Investitionen in die intermittierende Stromerzeugung aus erneuerbaren Energien in der EU nicht Schritt. Aber einige Mitgliedstaaten setzen ihren überstürzten Wettlauf zu einer totgeborenen Lösung fort. Erinnern wir uns auch daran, dass erneuerbare Energien für die EU praktisch Wind und Sonne bedeuten. Für sie ist die Wasserkraft, die das Flaggschiff der dauerhaften, kontrollierbaren, wirtschaftlichen und sauberen erneuerbaren Energien ist, die in den 1950er Jahren massiv installiert wurden, ein Tabuthema. Da die Erzeugung von Wind- und Sonnenenergie von Natur aus intermittierend ist, muss bei unzureichender Nachfrage der Überschuss durch Zahlung entsorgt werden, und diese Kosten werden von allen Verbrauchern, insbesondere den Haushalten, getragen.

Die Speicherung dieses Überschusses an Elektrizität ist daher ein Muss, aber die utopischen Versprechungen, die von Politikern und bestimmten Industriellen bezüglich der Batterien wurden und werden aus intrinsischen Gründen, die mit der Elektrochemie, aber auch mit der Geopolitik zusammenhängen, nicht eingehalten, da China den Batteriemarkt durch seinen Würgegriff auf die seltenen Erden kontrolliert. Es bleibt die Lösung, die Elektrizität, die der Markt nicht will, in Wasserstoff umzuwandeln. Das ist der Grundgedanke hinter der Strategie: eine Lösung für das Problem der Intermittenz von Wind- und Sonnenstrom zu finden.

Eine sehr ineffiziente Lösung

Die Umwandlung dieser unerwünschten überschüssigen Stromes in Wasserstoff wird durch Elektrolyse von Wasser realisiert und dann entweder als Brennstoff verwendet oder in Brennstoffzellen wieder in Strom umgewandelt. Das ist ein Wunder: sauberer Strom, der sauberen Brennstoff erzeugt, der nur dann Wasser produziert, wenn es verbraucht wird. Als Bonus wird dies eine Alternative zu Elektrofahrzeugen sein, falls auch diese andere auferlegte Strategie nicht funktioniert! Beachten wir, dass Deutschland, Japan, Südkorea und sogar Russland gerade große Investitionen in wasserstoffbetriebene Mobilität angekündigt haben, um nicht zu sehr von seltenen Erden und chinesischen Batterien abhängig zu sein. Die Begeisterung ist auf dem Höhepunkt: Züge, Schiffe und sogar Flugzeuge werden mit Wasserstoff betrieben werden. Über wasserstoffbetriebene Fahrräder und Tretroller haben sie noch nicht nachgedacht, aber es wird nicht mehr lange dauern, bis sie es tun!

Dies geht weit über die Utopie der Biokraftstoffe zu Beginn der 2000er Jahre hinaus, die von der EU trotz gesundem Menschenverstand und gegen wissenschaftliche Daten durchgesetzt wurde und deren Echo des Scheiterns sehr diskret bleibt. Im Jahr 2008 hatte die EU eine 10%ige Erzeugung von Biokraftstoffen für den Verkehrssektor bis 2020 verordnet, aber 2018 beschloss dieselbe EU, von einem „Minimum“ zu einem „Maximum“ überzugehen. Sie konnten sie trotz der negativen Auswirkungen auf die Umwelt nicht verbieten, weil ihre Richtlinie von 2008 Industrielle dazu veranlasst hatte, in diesen Sektor zu investieren. Wir subventionieren also weiterhin eine Erzeugung, die schlecht für die Umwelt ist. Mit der neuen Wasserstoffstrategie stürzen wir uns auf den gleichen Misserfolg und die gleiche Verschwendung von Subventionen, weil sie aus energetischer Sicht völlig ineffizient ist.

Das Verfahren im Einzelnen:

  1. Mit Wind- und Sonnenenergie intermittierend und daher manchmal überschüssigen Strom produzieren.
    2. Diesen Strom durch Elektrolyse von Wasser in Wasserstoff umwandeln.
    3. Den Wasserstoff komprimieren oder verflüssigen, um ihn zu speichern und zu transportieren.
    4. Verbrennen des Wasserstoffs zur Erzeugung von Strom.

Keiner dieser Schritte erfordert eine neue Technologie, sondern nur die Investitionen, die zur Realisierung erforderlich sind. Aber industrielle chemische Prozesse sind nie 100% effizient. Stufe 2 ist bestenfalls zu 80% effizient, und Stufe 3 ist zu 70% effizient. Stufe 4 mit Brennstoffzellen – eine teure Technologie, die trotz 30 Jahren öffentlicher Förderung in der EU und den USA noch nicht in Serie produziert wird – ist heute zu 50% effizient. Die Effizienz des gesamten Prozesses beträgt daher 0,80 x 0,70 x 0,50 = 0,28. Von den 100 Energieeinheiten, die von Windturbinen oder Sonnenkollektoren erzeugt werden, bleiben nicht einmal 30% übrig. Das Verfahren ist völlig ineffizient und wird daher ohne Subventionen keine industrielle Anwendung finden. Die Ineffizienz schlägt sich natürlich in höheren Kosten nieder.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/europes-hydrogen-strategy-to-nowhere/

Übersetzt von Chris Frey EIKE




Zwei sehr verschiedene Sommertage im Vergleich – was lehrt uns das?

Trüb, herbstlich kühl oder sonnig und warm – zwei Juli-Tage im Vergleich

Im Juli 2020 schwankte die atmosphärische CO2-Konzentration nur zwischen etwa 410 und 416 ppm (Quelle: Amerik. Wetterdienst NOAA) – viel zu wenig, um die enormen, in Deutschland beobachteten Temperaturunterschiede erklären zu können. Aber auch die Erklärung, wir würden den gemäßigten Sommer 2020 der Corona-Krise verdanken, weil viel weniger CO2 emittiert wurde, ist falsch! Denn ungeachtet der schwersten Rezession seit 1929 steigen sie ungebremst weiter (im Juni 2020 um 2,47ppm gegenüber dem Juni 2019, im Juli, dessen Werte noch nicht vollständig vorliegen, dürfte sich das in ähnlicher Größenordnung bewegen). Was unser Wetter (und damit langfristig unser Klima) wirklich beeinflusst, zeigt ein Vergleich zweier sehr unterschiedlicher Juli-Tage an der DWD-Station Erfurt/Weimar in Thüringen:

Abbildung 1: Stündliche Temperaturwerte (2m Höhe) an der Station Erfurt/Weimar am 8. Juli (blau) und am 30 Juli (rot). Am 8. Juli beeinflusste ein Skandinavien-Tief mit kühler, wolkenreicher Nordseeluft den Beobachtungsort, mitunter regnete es etwas, und die Tagesmaxima kamen über herbstliche 15 Grad kaum hinaus, währen es in der Nacht kaum unter 12 Grad abkühlte. Am 30. Juli lenkte ein Hoch über dem nördlichen Mitteleuropa trockene, wolkenarme Festlandsluft heran; nach klarer Nacht schien trotz weniger Altocumulus- und Cirrus-Wolken die Sonne fast durchgängig, was nach sehr kühler Nacht mit einem Minimum unter 10 Grad eine Erwärmung auf hochsommerliche 26 Grad ermöglichte.

Deutliches Süd-Nord-Gefälle der Juli-Witterung 2020

Während dieser Juli nahe der Meeresküsten sonnenscheinarm, niederschlagsreich und kühl war, zeigte sich südöstlich einer Linie, die etwa von der Kölner Bucht zum Oderbruch verlief, häufig die Sonne, und trotz einiger empfindlich kühler Nächte mit vereinzelten Boden- und ganz vereinzelten Luftfrösten verlief er, gemessen am CLINO-Wert 1981 bis 2010, temperaturnormal, teils, besonders im Südwesten, auch etwas zu warm:

Abbildung 2: Kühler Norden, warmer Süden. Die veraltete, sehr kühle CLINO-Periode von 1961 bis 1990 machte den Juli 2020 wärmer, als er wirklich war – ein beliebter Trick der grünen CO2-Klimawandel-Katastrophisten. Verschämt gibt das auch der DWD zu, der in seiner Pressemitteilung schreibt: „Mit 17,7 °C lag im Juli der Temperaturdurchschnitt um 0,8 Grad über dem Wert der international gültigen Referenzperiode 1961 bis 1990. Gegenüber der Vergleichsperiode 1981 bis 2010 war der Juli 2020 dagegen 0,3 Grad zu kalt.“ Bildquelle bernd-hussing.de

Niemand wird ernsthaft annehmen, die CO2-Konzentration sei im Norden wesentlich geringer als im Süden gewesen – und habe so die Kühle im Norden bewirkt. Tatsächlich war es ganz wesentlich die unterschiedliche Sonnenscheindauer, welche das Temperaturgefälle verursachte:

Abbildung 3: Sonniger Südosten, trüber Nordwesten: Die Verteilung ähnelt frappierend der Temperaturverteilung in Abbildung 2. Bildquelle: bernd-hussing.de

Und was für den Juli gilt, das gilt auch für den gesamten Sommer. Je sonniger, desto wärmer fällt er aus:

Abbildung 4: Fast zwei Drittel der Variabilität der sommerlichen Lufttemperaturen wird in Potsdam von der Sonnenscheindauer bestimmt – ein für klimatische Größen sehr enger, signifikanter Zusammenhang.

Abbildung 5: Ein Deutschland-Flächenmittel der Sonnenscheindauer liegt erst seit 1951 vor, doch zeigen sich für den Sommer die gleichen Zusammenhänge, wie in Potsdam. Der bislang sonnigste Sommer (2003) verfehlte mit 793 Sonnenstunden die Marke von 800 Stunden nur knapp; er war mit 19,7°C auch der bislang wärmste Sommer. Zur besseren Visualisierung in einer Grafik mussten die sehr unterschiedlichen Größen in Indexwerte umgerechnet werden.

Die Beispiele aus dem Juli 2020 sind natürlich nur Wetter und nicht Klima – aber sie sind sehr typisch. Bewölkungsverhältnisse, Sonnenscheindauer, Großwetterlagen und Luftmassen bestimmen im Wesentlichen das Temperaturniveau unserer Sommer – nicht die steigende CO2-Konzentration.




Klimahysterie kostet Menschenleben – aber Aktivisten wollen die Panik am Leben halten

Letzten Monat habe ich das Buch „Apocalypse Never“ veröffentlicht, das populäre Umweltmythen entlarvt. Darunter: dass der Mensch ein sechstes Massensterben verursacht und dass der Klimawandel Naturkatastrophen verschlimmert.

Obwohl ich erwartet hatte, dass mein Buch kontrovers sein würde, hätte ich nicht erwartet, dass der Top-Klimareporter von CNN es mit einer Zigarettenwerbung vergleichen würde. Oder dass mir ein Umweltjournalist mit fast einer halben Million Followern auf Twitter vorwirft, ich würde für die „Vorherrschaft der Weißen“ werben.

Ich bin wohl kaum ein Klimaleugner. Tatsächlich bin ich seit 20 Jahren Klimaaktivist und seit mehr als 30 Jahren Umweltaktivist. Regierungen, einschließlich des US-Kongresses, bitten mich regelmäßig, mein Zeugnis als Energieexperte abzulegen. Und in diesem Jahr hat mich das IPCC gebeten, als Gutachter für seinen nächsten großen Bericht zu fungieren.

Ich habe mich letztes Jahr entschlossen, meine Stimme zu erheben, nachdem mir klar geworden war, dass Alarmismus der psychischen Gesundheit schadet. Eine große Umfrage unter 30.000 Menschen auf der ganzen Welt ergab, dass fast die Hälfte glaubte, der Klimawandel würde die Menschheit aussterben lassen. Psychiatrie-Erfahrene setzen sich heute routinemäßig mit der Angst von Jugendlichen vor dem Klima auseinander. Im Januar stellten Meinungsforscher fest, dass eines von fünf britischen Kindern berichtete, Albträume darüber zu haben.

Und doch sagt der IPCC nicht Milliarden oder gar Millionen von Todesfällen durch den Klimawandel voraus. Das liegt zum Teil daran, dass wirtschaftliche Entwicklung und Vorsorge Naturkatastrophen, Krankheiten und andere Umweltauswirkungen des Klimawandels abmildern. Und die Wissenschaftler erwarten, dass sich unsere Fähigkeit zur Schadensminderung noch lange in der Zukunft ausweiten und verbessern wird.

Seit ihrem Höhepunkt in den 1920er Jahren ist die Zahl der Todesopfer durch Naturkatastrophen pro Jahrzehnt um 92 Prozent zurückgegangen. In jenem Jahrzehnt starben 5,4 Millionen Menschen durch Naturkatastrophen. In den 2010er Jahren waren es nur 0,4 Millionen. Der Rückgang fiel in eine Zeit, in der sich die Weltbevölkerung fast vervierfachte und die Temperaturen um mehr als 1 Grad Celsius gegenüber dem vorindustriellen Niveau gestiegen war.

Wären die Todesfälle noch geringer gewesen, wenn die Temperaturen nicht um 1 Grad gestiegen wären? Vielleicht, aber wir werden es nie wissen. Ein enormer Rückgang der Zahl der Todesopfer überwog die Zunahme der Todesopfer bei schwereren Katastrophen. Könnte der künftige Temperaturanstieg den Trend der sinkenden Sterblichkeit umkehren?

Vielleicht, aber der IPCC sagt dies nicht voraus. Das liegt zum Teil daran, dass wir – wieder einmal – die Menschen so viel besser vor Naturkatastrophen schützen können, ob mit oder ohne Klimaeinfluss.

Klima-Alarmisten ignorieren unentwegt unsere Fähigkeit zur Anpassung. Um nur ein Beispiel zu nennen: In Frankreich gab es im Jahre 2006 4000 weniger Todesfälle durch eine Hitzewelle als erwartet, dank verbesserter Gesundheitsversorgung, eines Frühwarnsystems und eines größeren öffentlichen Bewusstseins als Reaktion auf eine tödliche Hitzewelle drei Jahre zuvor.

Selbst in armen, für Extremwetter anfälligen Ländern wie Bangladesch ging die Zahl der Todesopfer dank kostengünstiger Wetterüberwachungs- und Warnsysteme und Sturmschutzbauten massiv zurück.

Einige haben gesagt, dass der Klimawandel Epidemien wie COVID-19 häufiger oder schwerer machen wird, aber die Hauptfaktoren für die Pandemie des neuartigen Koronavirus hatten nichts mit dem Klima zu tun, sondern mit dem Versagen des chinesischen Regimes, die öffentliche Gesundheit zu schützen.

Aus diesem Grund nennt der IPCC „Armutsbekämpfung, Interventionen im Bereich der öffentlichen Gesundheit wie die Bereitstellung von Wasser und sanitären Einrichtungen und ein Frühwarn- und Reaktionssystem für Katastrophen und Epidemien“ – und nicht Emissionsreduktionen – als Schlüssel zur künftigen Senkung des Krankheitsrisikos.

Warum behaupten also einige Alarmisten, dass der Klimawandel Katastrophen verschlimmert? Zum Teil, damit sie die sichtbarsten und dramatischsten Ereignisse der Welt, vom Hurrikan Sandy bis zu den Waldbränden in Kalifornien, nutzen können, um das Thema bei den Wählern stärker in den Vordergrund zu rücken.

Würde man einräumen, dass die Schäden durch den Hurrikan Sandy überwiegend auf das Versäumnis New Yorks zurückzuführen sind, seine Hochwasserschutzsysteme zu modernisieren, oder dass die Waldbrände in Kalifornien auf die Anhäufung von Totholz nach jahrzehntelanger Vernachlässigung zurückzuführen sind, dann würden alarmistische Journalisten, Wissenschaftler und Aktivisten der visuell starken Ereignisse und „Nachrichtenhaken“ beraubt, die sie brauchen, um die Menschen zu erschrecken, Geld zu sammeln und sich für die Klimapolitik einzusetzen.

Bei Klima-Alarmismus geht es nicht nur um Geld. Es geht auch um Macht. Seit mehr als drei Jahrzehnten rechtfertigen Eliten mit Klima-Alarmismus die Bemühungen um eine Kontrolle der Nahrungsmittel- und Energiepolitik in ihren Heimatländern und auf der ganzen Welt.

Gerade im vorigen Jahrzehnt haben die Klima-Alarmisten erfolgreich Gelder der Weltbank und ähnlicher Institutionen umgelenkt, weg von der wirtschaftlichen Entwicklung und hin zu vermeintlich wohltätigen Zwecken, wie z.B. Sonnenkollektoren für Dorfbewohner, die wirtschaftliches Wachstum nicht antreiben können.

Entgegen den Behauptungen des Top-Umweltreporters von CNN ist die Nutzung von Energie, die Kohlendioxid ausstößt, nicht wie das Rauchen von Zigaretten. Die Menschen müssen erhebliche Mengen an Energie verbrauchen, um einen angemessenen Lebensstandard zu erreichen. Niemand muss Zigaretten rauchen.

Letztlich ist der Klima-Alarmismus mächtig, weil er sich als die alternative Religion für angeblich säkulare Menschen herausgebildet hat, die viele der gleichen psychologischen Vorteile bietet wie der traditionelle Glaube.

Klima-Alarmismus gibt ihnen einen Zweck: die Welt vor dem Klimawandel zu retten. Er bietet ihnen eine Geschichte, die sie zu Helden macht. Und er bietet ihnen einen Weg, einen Sinn in ihrem Leben zu finden – unter Beibehaltung der Illusion, dass sie Menschen der Wissenschaft und der Vernunft und nicht des Aberglaubens und der Phantasie sind.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/michael-shellenberger-climate-hysteria-costs-lives-but-activists-want-to-keep-panic-alive/

Übersetzt von Chris Frey EIKE




ALARM: Eric Holthaus gibt es zu: „Beim ‚Klima-Notstand‘ geht es nicht um Wissenschaft, sondern um Gerechtigkeit“

Inschrift: Beim Klima-Notstand geht es nicht um Wissenschaft, sondern um Gerechtigkeit. – Auf @The Corres luden wir heimische Klima-Aktivisten aus jedem Kontinent ein, uns über die Änderung der Konversation zu unterhalten. – Folgendermaßen könnten wir das Klima-Narrativ neu aufstellen: https://t.co/qACaBFc18g. – Eric Holthaus am 28. Juli 2020

Holthaus zeigt auch auf, wie die Identitätspolitik die Klimadebatte übernommen hat. Siehe: NASA-Wissenschaftlerin Dr. Kate Marvel verbindet ‚Klimawandel‘ mit ‚weißer Vorherrschaft‘ – ‚Wir werden die Klimakatastrophe nie verhindern können, ohne die weiße Vorherrschaft abzubauen‘ – Rufe nach Klima- & Rassen-‚Gerechtigkeit (hier).

Holthaus, ein vieljähriger prominenter Klimaaktivist, hat die IPCC-Berichte der UNO gelobt. Siehe: Der Klimaschützer Eric Holthaus: Neuer IPCC-Bericht fordert „rigorose Unterstützung für die systematische Zerschlagung des Kapitalismus’“ (hier).

Holthaus hat auch seine vollen Emotionen in seinen Klimaaktivismus gesteckt. Siehe: Ich kann wegen des Klimawandels nicht schlafen – Warmist-Meteorologe Eric Holthaus gesteht „seelenzerstörende Verzweiflung“ und „Ich gestehe: Ich brauche Hilfe“ (hier).

Der Warmist Eric Holthaus – der öffentlich schwor, nie wieder zu fliegen – gibt zu, wieder zu fliegen! (hier)

Klimaexperte Eric Holthaus ’scheiterte‘ an einem Meteorologie-Studium am College – ‚erkannte, dass es eine Mischung aus Mathematik und Computersch… war‘ & ‚Oberstufen-Mathematik‘ (hier)

Klimaaktivist Eric Holthaus mag die Auswirkungen der COVID-Sperre auf den Autoverkehr: ‚Autos sind das Problem, nicht die Antwort‘ – ‚Monströse Autobahnsysteme‘ zerreißen – ‚autofreie Ära‘ in den Städten (hier)

Holthaus hat sich anderen prominenten Klimaaktivisten angeschlossen und zugegeben, dass es beim Klimawandel-Aktivismus nicht um Klimawissenschaft geht.

Architekten des Green New Deal geben zu, dass es NICHT um Klima geht

Die Mitarbeiter des AOC haben damit geprahlt, dass es beim Green New Deal um die Umverteilung von Wohlstand und nicht um das Klima geht. Der frühere Wahlkampfhelfer von Ocasio-Cortez, Waleed Shahid, gab zu, dass der GND von Ocasio-Cortez ein „Vorschlag zur Umverteilung von Reichtum und Macht von den Menschen oben nach unten“ sei.

Darüber hinaus enthüllte AOC-Stabschef Saikat Chakrabarti ebenfalls, dass es beim Green New Deal nicht um den Klimawandel geht. Die Washington Post berichtete im Jahre 2019: Chakrabarti hatte eine unerwartete Enthüllung. „Das Interessante am Green New Deal ist, dass es ursprünglich gar nicht um den Klimawandel ging. „Seht ihr es als eine Klimasache an?“ Chakrabarti fuhr fort: „Das Interessante am Green New Deal ist, dass wir es wirklich als eine „Wie verändert man die gesamte Wirtschaft“-Sache betrachten.“

Die UNO- und EPA-Regelungen sind einfach ein Vehikel, um Politikern und Bürokraten die Verantwortung für unsere Energiewirtschaft zu übertragen und uns vor schlechtem Wetter und „Klimawandel“ zu „retten“.

Der UN-Beamte Ottmar Edenhofer, Ko-Vorsitzender der IPCC-Arbeitsgruppe III, gab zu, was hinter der Klimafrage steckt: „Man muss klar sagen, dass wir durch Klimapolitik de facto den Reichtum der Welt umverteilen … Man muss sich von der Illusion befreien, dass internationale Klimapolitik Umweltpolitik ist. Das hat fast nichts mehr mit Umweltpolitik zu tun.“

Im Jahr 2009 warb der ehemalige Vizepräsident Al Gore für die US-amerikanische Cap-and-Trade-Gesetzgebung als eine Methode, um „Global Governance“ zu erreichen.

Die UN-Klimachefin Christiana Figueres erklärte 2012, dass sie eine „zentralisierte Transformation“ anstrebe, welche „das Leben aller Menschen auf dem Planeten ganz anders machen wird“.

Greta Thunberg erklärte im Jahre 2019: „Bei der Klimakrise geht es nicht nur um die Umwelt. Es ist eine Krise der Menschenrechte, der Gerechtigkeit und des politischen Willens. Koloniale, rassistische und patriarchalische Unterdrückungssysteme haben sie geschaffen und angeheizt. Wir müssen sie alle abbauen. Unsere politischen Führer können sich ihrer Verantwortung nicht länger entziehen“.

Thunbergs Berater, der Umweltaktivist George Monbiot, erklärte 2019, dass zur Verhinderung eines „Klimakollaps’“ eine vollständige Änderung unserer Lebensweise erfolgen müsse: „Wir müssen direkt ins Herz des Kapitalismus vordringen und ihn stürzen“, erklärte Monbiot (hier).

Der scheidende UN-Chef des IPCC enthüllt, dass die globale Erwärmung „meine Religion und mein Karma“ ist (hier).

EU-Kommissarin: Die Politik zur globalen Erwärmung ist richtig, auch wenn die Wissenschaft falsch liegt (hier) – „Unabhängig davon, ob die Wissenschaftler mit der globalen Erwärmung falsch liegen oder nicht, verfolgt die Europäische Union die richtige Energiepolitik, auch wenn sie zu höheren Preisen führt, so die europäische Klimakommissarin Connie Hedegaard.

Hedegaard im Jahre 2013: „Nehmen wir an, die Wissenschaft hätte in einigen Jahrzehnten gesagt: ‚Wir haben uns geirrt, es ging nicht um das Klima‘, wäre es dann nicht auf jeden Fall gut gewesen, viele Dinge zu tun, die man tun muss, um den Klimawandel zu bekämpfen?“

Rückblende: 1993: Der ehemalige US-Senator Timothy Wirth: „Wir müssen dem Problem der globalen Erwärmung begegnen. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun, sowohl in der Wirtschafts- als auch in der Umweltpolitik“ (hier).

Hedegaard im Jahr 2013: „Ich denke, wir müssen erkennen, dass es in der Welt des 21. Jahrhunderts keine Lösung ist, wenn wir die billigste Energie haben wollen“.

Rückblende 1975: Der Obama-Wissenschaftszar John Holdren sagt, die wahre Bedrohung für die USA sei die billige Energie: „Die USA sind viel mehr durch die Gefahren von zu viel Energie, zu früh, als durch die Gefahren von zu wenig Energie, zu spät, bedroht“ (hier).

Rückblende: UN IPCC-Beamter Edenhofer: „Wir verteilen den Reichtum der Welt durch Klimapolitik um“ (hier).

Maurice Strong von der UNO 1992 . Es ging NIEMALS um das Klima, es wird nur als Trojanisches Pferd für die sozialistische Übernahme der westlichen Zivilisation benutzt!!

pic.twitter.com/2i5oVRfM6R

– peter hogan (@PeterPhoban) 27. Juli 2020

Link: https://wattsupwiththat.com/2020/07/30/alert-warmist-eric-holthaus-admits-it-the-climate-emergency-isnt-about-science-its-about-justice/

Übersetzt von Chris Frey EIKE




Freie Rede unter Beschuss!

Tatsächlich sagten gestern die Direktoren (CEOs) dieser Social-Media-Unternehmen vor dem Kongress über ihre angeblichen Verstöße gegen Kartellgesetze und die Zensur von Personen mit konservativen Ansichten aus.

CFACT war gegen eine solche Zensur nicht immun. In den letzten Monaten wurden unsere Konten bei CFACT mehrfach als „falsche“ oder „teilweise falsche“ Informationen bezeichnet, nur weil sie sich von denen der liberalen Linken unterschieden.

In einem solchen von uns verfassten Beitrag schrieben wir einfach, dass die Sonne „einen Einfluss“ auf die globalen Temperaturen haben könnte. Das war zu viel für die „Faktenprüfer“ von Facebook. Sie indizierten unseren Beitrag, weil sie die Öffentlichkeit glauben machen wollen, dass nur „Menschen“ das Klima verändern.

CFACT wird diesen Angriff auf die Redefreiheit nicht tatenlos einfach hinnehmen. Deshalb stellen wir ein Team von Social-Media-Aktivisten zusammen, um den Missbrauch von Seiten wie Facebook, Twitter und Google zu dokumentieren und gleichzeitig Beiträge der radikalen Klima-Linken zu recherchieren – und diese als Falschmeldungen zu melden!

Es ist an der Zeit, dass die Linke einen Vorgeschmack auf ihre eigene Medizin bekommt!

Bitte helfen Sie CFACT, sich gegen die großen Tech-Giganten zu wehren, die solide Wissenschaft und Redefreiheit zensieren. Mit Ihrer Spende von 25, 50, 100, 250 oder mehr Dollar können Sie ein erstklassiges CFACT-Team, das aus einigen unserer führenden Hochschulstudenten besteht, ausrüsten und in die Lage versetzen, nicht nur diese Missstände vollständig aufzudecken, sondern auch über die alarmierenden, irreführenden Beiträge radikaler grüner Gruppen als „gefälschte Nachrichten“ zu berichten. Bitte spenden Sie hier!

CFACT steht in diesem Kampf nicht allein.

Michael Shellenberger, ein Umweltschützer, der kürzlich Wellen schlug, weil er sich für die Klimaangst entschuldigte, wurde ebenfalls einer umfassenden Zensur der sozialen Medien unterworfen.
Shellenberger schreibt: „Ich bin von Facebook zensiert worden, weil ich die Wahrheit über den Klimawandel und das Aussterben des Klimas gesagt habe … Facebook hat anscheinend seine wissenschaftliche Faktenprüfung auf eine Organisation namens ‚Climate Feedback‚ verschoben, die die Wissenschaft falsch darstellt…“.

Selbst Verbündete von CFACT wie die CO2-Koalition waren Angriffen ausgesetzt.
Eine Gruppe namens „Climate Power 2020“ schrieb kürzlich in Zusammenarbeit mit dem linken Milliardär Tom Steyer und der gescheiterten georgischen Gouverneurskandidatin Stacy Abrams einen Brief an Facebook, in dem sie Facebook aufforderte, die Facebook-Seite der CO
2-Koalition zu schließen. Doch damit nicht genug – er forderte auch die Zensur vieler anderer angesehener Wissenschaftler und Wirtschaftswissenschaftler.

Es ist an der Zeit, dass diese linken Tyrannen begreifen, dass wir ihren Müll nicht mehr mitnehmen werden!

Aber um wirklich etwas zu bewirken, brauchen wir Ihre Hilfe. Bitte schicken Sie uns Ihre möglichst großzügige Spende und helfen Sie CFACT, nicht nur für unsere, sondern auch für Ihre Rechte zu kämpfen, Ihre Meinung ohne Angst vor Zensur zu äußern.

Bitte spenden Sie hier!

Diese sozialen Medienunternehmen haben eine Monopolstellung und glauben, dass sie mit allem durchkommen. Sie sind zu vollwertigen linken Propagandainstrumenten geworden – deshalb ist es an der Zeit, zurückzuschlagen!

Für die Linke, ihre „Redefreiheit für mich, aber nicht für dich“.

Zeigen wir ihnen, dass das in Amerika nicht so funktioniert. Bitte leisten Sie heute Ihren großzügigsten Beitrag!

Ich danke Ihnen – auch im Namen der Natur und der Menschen!

————————–

Anmerkung: Dieser Beitrag stammt aus einer E-Mail von CFACT, weshalb kein Link angegeben werden kann. Wer die Übersetzung überprüfen möchte, der klicke auf das hier angefügte Original:

attack




Aha! „Erneuerbare Energie“ ist nur (eine Art von) „erneuerbar“ erzeugtem STROM

Vor 1900 gab es in der Welt keine Medikamente, Elektronik, Kosmetika, Kunststoffe, Düngemittel und Verkehrsinfrastrukturen. Wenn wir nur auf ein paar kurze Jahrhunderte zurückblicken, haben wir seit den Pioniertagen einen langen Weg zurückgelegt.

Auch hatte die Welt vor 1900 sehr wenig Handel, und ohne Transport gibt es keinen Handel. Die beiden Hauptakteure, die mehr für die Globalisierung getan haben als alle anderen: der Dieselmotor und die Düsenturbine, beide beziehen ihre Kraftstoffe aus Öl. Straßen- und Flugverkehr dominieren heute das Leben der meisten Menschen.

Die gegenwärtige Leidenschaft, eine Welt mit nur intermittierender Elektrizität zu verwirklichen, ist sich der unbeabsichtigten Folgen einer Welt ohne fossile Brennstoffe nicht bewusst. Die Unterzeichner der grünen Bewegung haben es versäumt sich vorzustellen, wie das Leben ohne jene Industrie sein könnte, die es vor 1900 nicht gab. Damit gab es damals: KEINE Medikamente und medizinische Geräte, KEINE Impfstoffe, KEINE Wasserfiltersysteme, KEINE Abwassersysteme, KEINE Düngemittel, um Milliarden zu ernähren, KEINE Pestizide, um Heuschrecken und andere Schädlinge zu bekämpfen, KEINE Kommunikationssysteme, einschließlich Handys, Computer und I-Pads, KEINE Fahrzeuge, KEINE Fluggesellschaften, die jetzt 4 Milliarden Menschen um die Welt befördern, KEINE Kreuzfahrtschiffe, die jetzt 25 Millionen Passagiere um die Welt befördern, KEINE Handelsschiffe, die jetzt monatlich Produkte im Wert von Milliarden Dollar um die Welt transportieren, KEINE Reifen für Fahrzeuge, KEIN Asphalt für Straßen und KEIN Weltraumprogramm.

Falls Sie sich nicht erinnern, wir hatten vor 1900 auch praktisch keine militärischen Flugzeugträger, Zerstörer, U-Boote, Flugzeuge und Panzer auf der ganzen Welt. Sowohl der Erste als auch der Zweite Weltkrieg wurden von den Alliierten gewonnen, da sie über mehr Öl, Mineralöl und Kohle verfügten als die Achsenmächte Deutschland, Italien und Japan, um ihre militärische Ausrüstung zu betreiben, Truppenkonvois zu bewegen und Nachschub in der ganzen Welt zu beschaffen.

Nach 1900 verfügen wir heute über Medikamente, Elektronik, Kosmetika, Kunststoffe, Düngemittel, Verkehrsinfrastrukturen und mehr als 6.000 Produkte, die aus Rohölderivaten gewonnen werden, darunter alle Teile von Sonnenkollektoren und Windturbinen sowie die verschiedenen Brennstoffe, mit denen Flugzeuge, Lastkraftwagen, Baumaschinen, Handelsschiffe, Kreuzfahrtschiffe und Kraftfahrzeuge weltweit betrieben werden.

Heute lebt fast die Hälfte der Welt – über drei Milliarden Menschen – von weniger als 2,50 Dollar pro Tag. Mindestens 80% der Menschheit lebt von weniger als 10 Dollar pro Tag. Mehr als 80 Prozent der Weltbevölkerung lebt in Ländern, in denen die Einkommensunterschiede immer größer werden.

Es ist unglaublich, dass die ärmsten 40 Prozent der Weltbevölkerung von globaler Armut betroffen sind und 5 Prozent des globalen Einkommens auf sie entfallen. Die reichsten 20 Prozent machen drei Viertel des Welteinkommens aus. Wasserprobleme betreffen die Hälfte der Menschheit.

Es liegt auf der Hand, dass China und Indien mit ihren 2,7 Milliarden Menschen bei begrenztem Einkommen und Armut weiterhin auf die Energiequelle setzen, die im Überfluss vorhanden, zuverlässig und erschwinglich ist – Kohle. In diesen beiden Ländern befinden sich mehr als die Hälfte (5.884) der Kohlekraftwerke der Welt (10.210). Zusammen sind sie dabei, 634 neue zu bauen. Sie investieren ihr Geld und ihre Mittel in ihre reichhaltigste Energiequelle – Kohle.

Länder, in denen fossile Brennstoffe weit verbreitet sind, sind im Allgemeinen wohlhabender und gesünder, und wohlhabende Länder sind gegenüber Naturkatastrophen widerstandsfähiger als ärmere Länder, die keinen Zugang zu fossilen Brennstoffen haben.

Bevor man auf den Zug der erneuerbaren Energien aufspringt: Diese erneuerbaren Energien haben eine sehr dunkle Seite der Umweltgräueltaten und eine nicht vorhandene Transparenz der Menschenrechtsverletzungen, die mit dem Abbau der exotischen Metalle und Mineralien verbunden sind, aus denen die Wind-, Solar- und EV-Batterien hergestellt werden.

Die wichtigsten Mineralien, die in den heutigen Batterien verwendet werden, sind Kobalt, das zu 60% aus einem Land, der Demokratischen Republik Kongo (DRC), stammt, und Lithium, das zu mehr als 50% aus dem Lithium-Dreieck in Südamerika stammt, das Teile von Argentinien, Bolivien und Chile umfasst. Heute werden 20% des Kobalts von Hand abgebaut. Amnesty International hat Kinder und Erwachsene dokumentiert, die Kobalt in engen, von Menschenhand gebauten Tunneln abbauen (hier) und dabei dem Risiko tödlicher Unfälle und schwerer Lungenerkrankungen ausgesetzt sind.

In den unterentwickelten Regionen der Welt, die zumeist aus öl- und gasarmen Ländern stammen, sterben jedes Jahr 11 Millionen Kinder, hauptsächlich aufgrund vermeidbarer Ursachen wie Durchfall, Malaria, Infektionen bei Neugeborenen, Lungenentzündung, Frühgeburt oder Sauerstoffmangel bei der Geburt.

Es scheint, dass Politiker, die den Untergang der Öl- und Gasindustrie unterstützen, sich zu Wort melden und Rechenschaft darüber ablegen sollten, dass sie die Beseitigung der Industrie unterstützen, die vor 1900 noch nicht existierte und die die jährlichen weltweiten Gräueltaten mit Todesfolge in den armen Ländern umkehren könnte, die einige hundert Jahre hinter uns liegen und sich noch nicht einmal der industriellen Revolution angeschlossen haben.

Energie ist mehr als Elektrizität. Wir hatten fast 200 Jahre Zeit, Klone oder Generika zu entwickeln, um die Produkte zu ersetzen, die wir aus Rohöl gewinnen, wie zum Beispiel: Medikamente, Elektronik, Kommunikation, Reifen, Asphalt, Düngemittel, Militär- und Transportausrüstung. Der soziale Bedarf unserer materialistischen Gesellschaften an kontinuierlicher, unterbrechungsfreier und zuverlässiger Stromerzeugung aus Kohle oder Erdgas und an all den Chemikalien, die aus Rohöl hergestellt werden, wird höchstwahrscheinlich auch weiterhin bestehen bleiben, weil wir unseren derzeitigen Wohlstand bestimmt nicht freiwillig und völlig sinnlos aufgebe wollen.

Das kürzlich erschienene Buch mit dem Titel [übersetzt] „Nur GRÜNE Elektrizität, die den Bürgern hilft, eine Welt ohne fossile Brennstoffe zu verstehen“ erklärt, dass derzeit niemand eine Antwort darauf hat, wie wir weiterhin Produkte herstellen und Dinge ohne fossile Brennstoffe und die Derivate aus Erdöl bewegen können, aber vor allem ist der „Aha-Moment“ gekommen – Elektrizität allein aus Wind und Sonne kann die Brennstoffe und Produkte, die aus Erdöl hergestellt werden, nicht ersetzen.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics.

Link: https://www.cfact.org/2020/07/23/aha-renewable-energy-is-only-kind-of-renewable-electricity/

Übersetzt von Chris Frey EIKE




Die Medien befleißigen sich jetzt der Meinungs­kontrolle!

Heute sind die Universitäten Schauplatz einer neuen, bedauerlicherweise fehlgeleiteten Bewegung, der Anti-Freie-Rede-Bewegung.  Einige bezeichnen sie als „Cancel Culture“, was unklar ist, aber im Wesentlichen ist es eine Bewegung, die von der verhängnisvollen Idee angetrieben wird, dass eine Gruppe von Menschen in der Lage sein sollte, anderen Menschen zu diktieren, was sie sagen dürfen, welche Meinungen sie ausdrücken dürfen, was sie schreiben und welche Worte sie sprechen dürfen.  Schriftsteller und Redner, die nicht in ein sehr enges Fenster dessen passen, was von den Twitter-Mobs als „akzeptabel“ erachtet wird, werden niedergeschrieen, ausgeladen, verleumdet, mit Kündigungsforderungen konfrontiert und in ihrem Leben bedroht.

Bari Weiss, die gerade nach einer dreijährigen Amtszeit als Redakteurin und Autorin über Kultur und Politik bei der New York Times zurückgetreten ist, drückte es so aus:

Twitter steht nicht auf dem Impressum der New York Times. Aber Twitter ist ihr letzter Redakteur geworden. Da die Ethik und die Sitten dieser Plattform zu denen der Zeitung geworden sind, ist die Zeitung selbst zunehmend zu einer Art Plattform für Vorstellungen geworden. Die Geschichten werden so ausgewählt und erzählt, dass sie auch das kleinste Publikum zufrieden stellen, anstatt einem neugierigen Publikum zu erlauben, über die Welt zu lesen und dann seine eigenen Schlussfolgerungen zu ziehen. Mir wurde immer beigebracht, dass Journalisten damit beauftragt werden, den ersten groben Entwurf der Geschichte zu schreiben. Nun ist die Geschichte selbst eine weitere vergängliche Sache, die so gestaltet ist, dass sie den Bedürfnissen einer vorgegebenen Erzählung entspricht“.

Und, mein persönlicher Lieblingssatz:

Das Papier der Aufzeichnungen ist mehr und mehr die Aufzeichnung derer, die in einer weit entfernten Galaxie leben, eine, deren Sorgen aus dem Leben der meisten Menschen zutiefst entfernt sind“.

(Lesen Sie das gesamte Rücktrittsschreiben auf der Website von Bari hier.  Es ist die zehn Minuten, die dafür erforderlich sind, durchaus wert.  Vielleser bei WUWT werden feststellen, dass ich auf diesen Seiten seit Jahren dasselbe über die NY Times sage).

Die Free Speech Movement führte dazu, dass die Universitäten bestimmte Bereiche benannten, in denen jeder kommen und sprechen, Broschüren und Flugblätter verteilen und die von ihm gewählten Meinungen und politischen Ansichten zum Ausdruck bringen konnte. Jede Meinung – jede Rede – alles schriftliche Material. Es spielte keine Rolle, wie beleidigend es für einige war; wie verrückt, abgedreht oder antiamerikanisch es war. Sie konnten es sagen, schreiben und verteilen. Die meisten dieser freien Reden und Pamphlete wurden einfach im Vorbeigehen angenommen und in den Papierkorb geworfen. Aber sie wurden nicht verboten und nicht aus dem Leben gerissen.

Traurigerweise ist das heute nicht mehr der Fall.

Das heutige öffentliche Forum, die heutige Free Speech Zone, ist das Internet. Persönliche und organisatorische Websites, Facebook-Seiten, Twitter-Feeds. Das Schöne am Internet war, dass man sagen konnte, was immer man wollte, und solange man nicht gegen bestimmte Gesetze (Pornographie, Morddrohungen usw.) verstieß, konnte man seine Ansichten veröffentlichen, und wenn andere Leute sich dafür entschieden, sie zu lesen, konnten sie dies frei tun.

Sie lesen gerade eine dieser Bemühungen um freie Meinungsäußerung: Watts Up With That. Es hat Versuche gegeben, diese Website zu schließen, es hat persönliche Drohungen gegen ihren Gründer und einige der Autoren hier gegeben.  Es gibt ideologische Gegner, die diese Website fälschlicherweise als Fehlinformation und Desinformation bezeichnen und diejenigen, die hier schreiben, verleumden und verleumden.  Diese Opposition hat das Recht, ihre Meinung zu äußern – genau wie wir.  Sie haben nicht das Recht, sich zu bemühen, ihre Ansichten anderen gegenüber durchzusetzen, indem sie versuchen, diese Website zu schließen oder den Verkehr von dieser Website wegzuleiten.  Google hat WUWT in seiner Suchmaschine delegitimiert und gleichzeitig verleumderische Sites legitimiert. (Einige meiner früheren Arbeiten über Google hier, hier und hier).

Jetzt ist ein neues Übel aufgetaucht, und zwar auf dem größten öffentlichen Forum der Welt, Facebook. Der Angriff von Facebook auf die Redefreiheit wird als „Faktenprüfung“ bezeichnet – und ein ähnlicher Angriff wurde in vielen Zeitungen reflektiert.

FACT-CHECKING oder OPINION-CHECKING?

Der „Vorfall“ ereignete sich im vergangenen August – die Veröffentlichung eines Meinungsbeitrags im Washington Examiner von Pat Michaels und Caleb Rossiter von der CO2-Koalition. Der Beitrag wurde anschließend auf die Facebook-Seite der Koalition kopiert.

Die Kopie der Facebook-Seite der CO2-Koalition wurde prompt als „falsch“ bezeichnet.  Hier ist die Geschichte unklar, und verschiedene Medien berichten unterschiedlich.  Eine Version besagt, dass ein aufgeklärter Facebook-Mitarbeiter (die Presse bezeichnet ihn als „konservativen“ Mitarbeiter, der noch nicht identifiziert wurde) das „falsche“ Etikett mit der Begründung entfernte, dass es sich bei der Arbeit des Washingtoner Prüfers eindeutig um eine Stellungnahme handelte. Andere Nachrichtenagenturen geben an, dass Facebook auf einen Protest der CO2-Koalition reagierte und das Etikett entfernte.

Diese Geschichte hätte damals sterben müssen – es war ein „Sturm in der Teekanne“ – aber seltsamerweise tauchte sie letzte Woche an mehreren Stellen wieder auf (hier, hier und noch überraschender hier (als PDF), als Brief von Elizabeth Warren und drei anderen US-Senatoren an Mark Zuckerberg).

Es scheint mir, dass jemand diese Geschichte an wohlwollende Medien mit einer Kopie an das Büro von Elizabeth Warren weitergeleitet hat.

Was wirklich passiert ist, wird in der Presse verschleiert, aber wenn man tief genug gräbt und die gesamte Presseberichterstattung liest, stellt man fest, dass Facebook niemanden gebeten hat, den fraglichen Artikel einem Fact-Check“ zu unterziehen. Eine private Klimaschutzgruppe initiierte die Aktion auf eigene Faust und nutzte ihre Position als „anerkannte“ Facebook-Organisation außerhalb einer dritten Organisation zur Faktenüberprüfung, um den Artikel (auf der Facebook-Seite einer privaten Organisation) als falsch zu kennzeichnen. Dazu mussten sie lediglich einen Eintrag in eine Facebook-Datenbank vornehmen.

Wer hat das getan? Climate Feedback. Sie sind nicht auf der Facebook-Liste der anerkannten Faktenprüfer aufgeführt (siehe diese Site, unten, wählen Sie, um die Liste der US-amerikanischen Faktenprüfer zu sehen), aber sie sind offenbar eine Untergruppe von Science Feedback, die aufgeführt ist.

Man erhält sofortiges „Feedback“ zu ihren Meinungen über das Klima durch dieses Bild auf der Startseite der Science Feedback-Website:

Facebook verfolgt den Grundsatz, dass Meinungsartikel in der Regel nicht auf Fakten überprüft werden, basierend auf der offensichtlichen Tatsache, dass:

und zu kontroversen Themen wie dem Klimawandel decken sie ein sehr breites Spektrum von Standpunkten ab, von „wegen der CO2-Verschmutzung sind wir alle dem Untergang geweiht und werden alle sterben“ (mit verschiedenen Zeitrahmen von 5 bis 30 Jahren) bis hin zu dem Standpunkt von Michaels, Rossiter (und Will Happer) bei der CO2-Koalition, dass höhere „Kohlendioxidwerte allen helfen werden, auch zukünftigen Generationen unserer Familien“.

Die offizielle Haltung von Facebook zu Meinungen und Fact-Checking ist Folgende:

„Meinung:
Der Inhalt von Meinungen kann im Allgemeinen nicht bewertet werden. Dazu gehören Inhalte, die für Ideen eintreten und Schlussfolgerungen auf der Grundlage der Interpretation von Fakten und Daten ziehen und der Öffentlichkeit mitteilen, was der Autor oder Beitragende über ein Ereignis oder ein Thema denkt. Meinungsbeiträge können berichtete Fakten oder Zitate enthalten, betonen jedoch die eigenen Gedanken, persönlichen Vorlieben und Schlussfolgerungen des Autors. Dazu können auch Leitartikel, Befürwortungen oder Inhalte gehören, die in der Überschrift mit „Meinung“ gekennzeichnet sind, von einem identifizierten Meinungskolumnisten verfasst wurden oder von einer Website oder Seite mit dem Hauptzweck verbreitet werden, die Meinungen oder Tagesordnungen von Persönlichkeiten des öffentlichen Lebens, Think Tanks, NGOs und Unternehmen zum Ausdruck zu bringen. Inhalte, die als Meinung präsentiert werden, aber auf zugrundeliegenden falschen Informationen basieren, können dennoch für eine Bewertung in Frage kommen“.

Facebook ist der Ansicht, dass Menschen ein Recht darauf haben, ihre Meinung frei zu äußern (und nicht irgendein fleißiger Körper, Twitter-Mob oder eine Issue-Advokat oder Advocacy-Gruppe, die ihre Meinung unabhängig voneinander als falsch, Fehlinformation, Desinformation, Falschdarstellung usw. abstempelt). Jemand – und ich vermute, es handelt sich dabei um die gleichen Personen, die an Science/Climate Feedback beteiligt sind – erzeugt wieder eine Menge neuen Lärm über die Politik von Facebook. Diese Ausgabe teleportierte sich nicht einfach durch die Zeit vom letzten August zur Abteilung Klima der NY Times, zu ClimateWire, zur Website Heated oder zum Schreibtisch von Elizabeth Warren. Offenbar hat jemand beschlossen, die laufenden Bemühungen, Facebook dazu zu bringen, Inhalte anderer sozialer und politischer Themen [Rassismus, Trump, Impfstoffe, Polizei] zu zensieren oder zu kontrollieren, auch versucht, die Plattform dazu zu bringen, auch Meinungen zum Klima zu zensieren.

Das nennt man Fact-Check?

Es ist eine interessante Lektüre, die „Anmerkungen“ zu sehen – die Details der „Fakten“-Überprüfung, die Climate Feedback dazu veranlasst hat, den Artikel der CO2-Koalition fälschlicherweise als „falsch“ zu bezeichnen – ClimateFeedback hat die „Faktenüberprüfung“ des Meinungsartikels selbst initiiert – Man denke daran, dass Facebook keine Faktenüberprüfung dieses Artikels verlangt hat.

Man schaue hier.

Das Kästchen auf der rechten Seite erscheint, wenn man auf die Überschrift der Geschichte klickt.  Wenn man auf einen anderen hervorgehobenen Text klickt, wird deutlich, dass es sich bei den „Faktenprüfern“ nicht um eine Faktenprüfung, sondern um eine Meinungsprüfung handelt. Ich empfehle den Lesern, sich die Seite anzusehen und auf die einzelnen Anmerkungen zu klicken, um die „Faktenprüfung“ für den jeweiligen Artikel zu sehen.  ALLE sind Meinungsfragen, die von der Gesamtsicht auf die Klimafrage abhängen.  Einer der „Faktenprüfer“, Stephen Po-Chedley, verlinkt gerne auf einige seiner eigenen Artikel als Beweis dafür, dass die Koalition in dem einen oder anderen Punkt falsch liegt.

E&E-News stellt fest:

„Facebook hat es einfacher gemacht, die Öffentlichkeit in die Irre zu führen, weil es ungenaue Klima-Behauptungen einem Publikum aufbürdet, das nur an parteiischen Erzählungen interessiert und nicht bereit ist, die tatsächliche Wissenschaft zu untersuchen, sagte Andrew Dessler, ein Klimawissenschaftler an der Texas A&M University und Mitglied des Teams, das den ursprünglichen Beitrag der CO2-Coalition auf Fakten überprüft hat. Er sagte, dass Facebook, wie auch andere soziale Medienunternehmen, es den Menschen erlaube, „in den Blasen zu leben, wo sie nur die Informationen hören, die sie hören wollen“.

[NB: Keine der Anmerkungen zum Artikel des Washington Examiner wurde von Andrew Dessler gepostet.  Dessler ist weder auf der Climate Feedback-Website noch auf der Science Feedback-Website als Gutachter aufgeführt].

Hier ist die Abfolge der Ereignisse:

1. Pat Michaels und Caleb Rossiter veröffentlichen am 25. August 2019 im Washington Examiner ein Op-Ed-Stück, in dem sie die Meinungen ihrer Gruppe, der CO2-Koalition, zum Thema Klimawandel und CO2 darlegen.

2. Das Climate Team, einschließlich derer, die mit dem sogenannten Klima-Feedback befasst sind, und Andrew Dessler (der nicht offiziell mit der Science/Climate Feedback Group verbunden ist), mögen diese Meinungen nicht.

3. Anscheinend können sie den Washington Examiner nicht unter Druck setzen, also gehen sie dem wiederveröffentlichten Artikel auf der Facebook-Seite der Koalition nach, führen ihre unabhängige und unaufgeforderte „Faktenprüfung“ durch und bezeichnen den Meinungsartikel auf Facebook als „irreführend, fehlerhaft argumentiert, voreingenommen, ungenau und als Rosinenpickerei“. Man beachte, dass alle ihre Einwände selbst Meinungen und ihr eigenes Verständnis komplexer Daten sind – wenn auch in Übereinstimmung mit dem, was als „Klimakonsens“ bezeichnet wird.

4. Im September 2019, etwa drei Wochen später, nach einer Beschwerde der Koalition, stimmt Facebook zu, dass die Überprüfung von Fakten eine Verletzung der eigenen Richtlinien darstellt und ent-kennzeichnet den Artikel.

5. Nun, Ende Juni 2020, beginnt jemand, der nicht bereit ist, diesen Angriff auf die Redefreiheit erfolglos bleiben zu lassen,, „Empörung“ zu schüren, nachdem er zehn Monate gewartet hat, indem er den Artikel erneut an Nachrichtenagenturen (und, wie es scheint, an Elizabeth Warren im US-Senat) herausgibt.

Diejenigen, die das nicht ganz verstehen, sollten das Rücktrittsschreiben von Bari Weiss, das weit oben verlinkt ist, noch einmal lesen. Sie sagt es über der NY Times, aber es trifft auf fast alle Massenmedien in den Vereinigten Staaten (und sicherlich auch in Großbritannien) zu:

Stattdessen hat sich in der Presse, aber vielleicht besonders bei dieser Zeitung, ein neuer Konsens herauskristallisiert: dass die Wahrheit kein Prozess der kollektiven Entdeckung ist, sondern eine Orthodoxie, die bereits einigen wenigen Aufgeklärten bekannt ist, deren Aufgabe es ist, alle anderen zu informieren“.

Wir sehen dies jetzt bei Google, Twitter, YouTube und anderen sozialen Medien und internetbasierten Plattformen. Diejenigen, die sich selbst für die „aufgeklärten Wenigen“ halten – die glauben, dass nur sie die Wahrheit kennen und dass „Wahrheit = Orthodoxie, Wahrheit = Konsens, Wahrheit = der Wille der Mafia“ ist – und die Macht ergreifen, um alle Ansichten zu blockieren, die ihren eigenen widersprechen.

Dies gilt in der Klimawissenschaft seit Jahrzehnten. Es überrascht jedoch diejenigen, die den Blick gesenkt und weggeschaut haben, froh, dass sie sich auf einem anderen Gebiet befanden. Nun, da der Konsens-Mob seine Aufmerksamkeit auf Historiker, Ärzte, Philosophen, Psychologen, Professoren und Juristen gelenkt hat, sehen wir ein paar weitere Stimmen, die sich gegen diese zerstörerische Flut stemmen. Diese Stimmen werden wiederum bösartig angegriffen, weil sie die Redefreiheit verteidigen – schließlich „passen sie nicht in das anerkannte Twitter-Narrativ“.

# # # # #

Kommentar des Autors dieses Beitrags:

Dies ist ein Meinungsartikel. Wenn Sie damit nicht einverstanden sind, hinterlassen Sie bitte Ihre gegenteilige Meinung in den Kommentaren.

Beispiele sind im Alltag so weit verbreitet, dass wir eine rekordverdächtige Anzahl von Kommentaren hätten, wenn jeder Leser einen Link zu einer lokalen Geschichte hinterlassen würde, die dieses Problem veranschaulicht.

Am 15. Juli 2020 gab Caleb Rossiter hier seine Version dieser Episode wieder.

Ich nenne in diesem Aufsatz keine Beispiele für eine reine Zweiparteienpolitik. Diejenigen Leser, die sehen möchten, wie schlimm dieses Problem ist, wenn es die Zwei-Parteien-Politik in den Vereinigten Staaten betrifft, können sich einen der folgenden Sites ansehen, einen beliebigen Link auswählen und selbst bestimmen, ob die Medien Fakten oder Meinungen prüfen. Meiner Ansicht nach prüfen sie meist anhand ihrer etablierten redaktionellen Vorgaben und nicht anhand von Fakten. (Nochmals, man lese Bari Weiss).

AP News: https://apnews.com/APFactCheck

CNN Fact-Check Politics: https://www.cnn.com/specials/politics/fact-check-politics

NPR Fact-Checks Politics: https://www.npr.org/sections/politics-fact-check

MSN Fact-Check: https://www.msn.com/en-us/news/factcheck

USA Today Fact-Check: https://www.usatoday.com/news/factcheck/

NY Times Fact-Checks: https://www.nytimes.com/spotlight/fact-checks

Dies ist ein schwerwiegendes Problem – wir alle müssen uns klarmachen, wo wir stehen. Verlangen Sie von Ihren lokalen Nachrichtenagenturen, dass sie echten Journalismus praktizieren – und dass sie nicht nur nachplappern, worum es bei den Twitter-Mobs geht. Verlangen Sie eine wirklich unvoreingenommene Berichterstattung über Themen.

Und um Himmels willen, wenn Sie sich versucht fühlen, „mitzumachen, um miteinander auszukommen“ – hören Sie auf! Hören Sie einfach auf! (h/t Bob Newhart)

Lesen Sie viel, denken Sie selbst nach und denken Sie kritisch.

Link: https://wattsupwiththat.com/2020/07/23/the-media-is-now-opinion-checking/

Übersetzt von Chris Frey EIKE




Grüne Propaganda

Das vielleicht bekannteste Beispiel für grüne Propaganda ist die hartnäckige Behauptung, dass 97% der Klimawissenschaftler darin übereinstimmen, dass der vom Menschen verursachte Klimawandel den Planeten gefährdet. Studien mit dieser 97%-Zahl wurden bereits im Jahre 2014 entlarvt. In einer solchen Studie stellten vier unabhängige Gutachter fest, dass nur 0,3 Prozent von 11.994 zitierten Abstracts tatsächlich die Aussage enthielten, dass menschliche Aktivitäten die Hauptursache für die globale Erwärmung sind.

Aber man vergesse die mickrigen 97%! Im November 2019 hat die grüne Propagandamaschine den Einsatz erhöht. Jetzt, so behaupteten sie, gebe es einen wissenschaftlichen Konsens zu 100% darüber, dass der Mensch die Haupttreiber des Klimawandels sei. 100 Prozent?!? Was ist mit den „350 [peer-reviewed] Papieren, die seit 2017 veröffentlicht wurden und die die Behauptung untergraben, dass die Erwärmung nach den 1850er Jahren ungewöhnlich gewesen sei“, und Dutzende weiterer Artikel im Jahr 2019, die zu dem Ergebnis gekommen waren, „dass an unserem Klima nichts alarmierend oder katastrophal ist“?

Eine weitere alltägliche Taktik der grünen Propaganda bestand darin, die tatsächlichen Temperaturaufzeichnungen einfach zu fälschen. Der Umweltschützer und Computermodellexperte Tony Heller hat viele dieser Schwindeleien in einer Reihe von Augen öffnenden Videos dokumentiert. (Hier ist ein weiterer Link. Und hier noch einer.) Interessanterweise war die National Oceanic and Atmospheric Administration, der offizielle Hüter der Temperaturaufzeichnungen der Vereinigten Staaten, laut The Wall Street Journal ausdrücklich vom Data Quality Act ausgenommen – dem Bundesgesetz, das eine solide wissenschaftliche Grundlage für die Politikgestaltung verlangt.

Ein weiteres fruchtbares Feld für grüne Propaganda-Lügen ist der „Peer-Review“-Prozess. Erstens glauben viele Wissenschaftler, dass er selbst gescheitert ist. Einige beschreiben ihn als „eine Form der Zensur“ – als eine Art Torwächter, um Andersdenkende fernzuhalten. Andere behaupten: „Peer-Review ist dafür bekannt, Voreingenommenheit, Inkompetenz … Ineffektivität und Korruption zu erzeugen“. Dr. John Ioannidis, der im Zusammenhang mit Covid-19 mit seiner Kritik an der Datenerfassung und Modellierung so zielgerichtet vorgegangen ist, behauptet, je „heißer“ ein Gebiet der wissenschaftlichen Forschung ist („heißer“ bedeutet beliebter und aktiver), „desto unwahrscheinlicher ist es, dass die Forschungsergebnisse wahr sind“. Und welches Gebiet der wissenschaftlichen Forschung war in den letzten 30 Jahren heißer als der Klimawandel?

Zweitens, wie wir aus E-Mails von Klimagate und anderen Quellen erfahren haben, war die Begutachtung durch Fachkollegen in der Klimawissenschaft höchst inzestuös, da die Schlüsselfiguren im Alarmisten-Lager gegenseitig ihre Arbeit überprüfen und gleichzeitig ihre Arbeit vor der Überprüfung durch andere Wissenschaftler abschirmen.

Drittens behauptete der verstorbene IPCC-Vorsitzende Rajendra Pachauri hochmütig, dass der IPCC nur von Fachkollegen begutachtete Wissenschaft verwendet. Dem war nicht so. Die viel gepriesene „Klimabibel“ des IPCC (der Bericht von 2007, der mit dem Friedensnobelpreis für den IPCC ausgezeichnet wurde) zitierte 5.587 nicht von Experten begutachtete Quellen wie „Pressemitteilungen, Zeitungs- und Zeitschriftenausschnitte, Arbeitspapiere, Studentenarbeiten, Diskussionspapiere und Literatur, die von grünen Interessengruppen veröffentlicht wurde“.

Eine gängige Propagandatechnik besteht darin, nur eine Seite der Geschichte zu erzählen. So hat die grüne Propaganda im Februar dieses Jahres in der Antarktis die rekordverdächtig warme Temperatur von 18,3 Grad Celsius gehypt. Während sie ein Rekordsommerhoch auf der Südhalbkugel hochjubelten, verschließen die grünen Propagandisten die Augen vor einem winterlichen Rekord-Minimum auf der Nordhalbkugel, das sich einen Monat zuvor ereignet hatte – genauer gesagt, vor einer Temperaturmessung von -66°C in Grönland.

Als die Temperatur in der sibirischen Stadt Werchowjansk am 20. Juni 38 Grad Celsius erreichte, drehte die grüne Propagandamaschine gewaltig auf. (Diese Temperatur lag weniger als ein Grad über dem früheren Rekord-Maximum von 1988). Sie vergaßen zu erwähnen, dass eine solche Hitze nördlich des Polarkreises nicht beispiellos war. Bereits am 27. Juni 1915 erreichte die Temperatur in Fort Yukon, Alaska, ebenfalls 38 Grad Celsius. Übrigens habe ich keine grünen Berichte darüber gesehen, dass die Menschen in Werchowjansk am 5. Juli durch Schnee am Boden erwachten. Wilde Temperaturschwankungen sind dort aufgrund der eigenartigen Topographie und anderer natürlicher Faktoren eine Tatsache.

Haben Sie den BBC-Bericht über den antarktischen Gletscher Thwaites gesehen, der rasch schmilzt? Das stimmt, aber der Bericht hat nicht erwähnt, dass aktive Vulkane unter dem Gletscher die Ursache für das Abschmelzen sind. Ein Verbot von Geländewagen wird Thwaites nicht vom Schmelzen abhalten.

Im vergangenen September proklamierten 250 Nachrichtenorganisationen auf der ganzen Welt offen eine koordinierte Kampagne, um ihre Leser und Zuschauer von der dringenden Notwendigkeit politischen Handelns zur Bewältigung des katastrophalen Klimawandels auf dem UN-Klimagipfel in jenem Monat zu überzeugen. Jeglicher Vorwand journalistischer Unparteilichkeit wurde ausdrücklich verneint. Die Medien kündigten sich offen und stolz als Fürsprecher (Propagandisten) für ihren bevorzugten Standpunkt an. Im Variety-Magazin erschien sogar ein Artikel mit dem Titel [übersetzt] „Tut Hollywood genug, um die Klimakrise zu bekämpfen“, als ob die Unterhaltungsindustrie bei der öffentlichen Gehirnwäsche an der Spitze stehen sollte.

Unterdessen bestehen einige grüne Eiferer darauf, dass die grüne Propaganda, die sich während der letzten Jahrzehnte an Kinder im In- und Ausland richtete, verstärkt werden müsse. Ein britischer Grünling schrieb: „Lehrer … werden jungen Menschen helfen müssen, tief verwurzelte Annahmen, Haltungen und Erwartungen zu kritisieren und zu überdenken, die sich durch die Geschichte ziehen und nun einen Großteil des Lebens auf der Erde gefährden“.

Ich lasse Sie mit einer Frage allein: Kennen Sie wirklich die Wahrheit über den Klimawandel, oder haben Sie so oft grüne Propaganda gehört, dass Sie einfach annehmen, was sie sagen, sei wahr?

Autor: Mark Hendrickson, Ph.D., is an economist who has analyzed the global warming story for 30 years.

Link: https://www.cfact.org/2020/07/26/green-propaganda/

Übersetzt von Chris Frey EIKE




Friedrich-Naumann-Stiftung im Propaganda-Modus gegen die „Klimaleugner“ – wissenschaftlich verbrämte Propaganda auf „liberale“ Art

Ist der Ruf erst ruiniert…

Die Friedrich-Naumann-Stiftung hatte mal den Ruf besonders kontroversen Meinungen in Politik und Wissenschaft ein Forum zu geben. War sie es doch, welche die erste größere Konferenz zur Klimafrage unter reger Beteiligung auch Klima realistischer Wissenschaftler im Jahre 2005 in Gummersbach abhielt.

Doch diese Zeiten sind vorbei. Spätestens seit dem Wechsel ihrer Führung vom erzliberalen FDP Mann Wolfgang Gerhard zum glatteren Karl-Heinz Paqué, wurde der Kurs geschmeidiger. Nicht mehr anecken wollen, scheint die neue Leitlinie zu sein, sondern für „regierungsfähig“ um jeden Preis gehalten zu werden. Die Vorgaben dazu stammen wohl vom Vorsitzenden Christian Lindner, der im Parlament nicht den Ort sieht, in dem um die besten Lösungen für das Land, wenn nötig auch heftig gestritten wird, in dem die Opposition noch ihren Job macht, sondern in dem er einer „staatlichen Verantwortungsgemeinschaft“ das Wort redet. Bei soviel Verantwortungssinn kann echte Opposition nur stören. Oder wenn der FDP Abgeordnete Marco Buschmann fordern darf: „Eine Begrenzung des CO₂-Ausstoßes gemäß wissenschaftlicher Erkenntnis ist daher eine Pflichtaufgabe des Staates.“1.

In so einem Biotop ist es auch für die Friedrich-Naumann-Stiftung angebracht tunlichst mit den Wölfen zu heulen, und auf die in ihren Augen sehr störenden „Klimaleugner“ einzudreschen. Streng wissenschaftlich natürlich, zumindest verkauft sie so Ihren Mann der Stunde, den promovierten theoretischen Chemiker Mats Simmermacher, dem dieser nette Job zufiel. Er durfte dann mit dem Jungphilosophen und für manche nette Äußerung im Parlament bekannten – ebenfalls promovierten – Lukas Köhler auf einer Vortragsveranstaltung sprechen, die Corona-zeitgeistgemäß virtuell abgehalten und zu der öffentlich eingeladen wurde.

Vorweg eine allgemeine Betrachtung des Verhaltens junger „Liberaler

Bevor wir aber auf die wesentlichen Schmankerln seines Vortrages eingehen, darf eine kleine allgemeine Beobachtung der einführenden Worte nicht fehlen. Sie zeigt – vermutlich unbeabsichtigt – wie sehr die Jungliberalen, die dort zu Wort kommen, dem grünen Zeitgeist hinterherhecheln. Denn gleich zu Anfang des Videos geht es politisch überaus korrekt zu. Alles wird sorgfältigst gegendert. Sie sprechen von „Teilnehmenden“, statt von Teilnehmern (schließen also nicht nur Männlein und Weiblein ein, sondern auch noch alle vielfältigen Diversen), sie sprechen auch von Wissenschaftlerinnen und Wissenschaftlern, von Fachkolleginnen und Fachkollegen etc. etc. Nur bei Klimawandel-„Leugnern“, wie wir schon im Titel der Veranstaltung böswillig verunglimpft werden, wird nur in der männlichen Form gesprochen. Ob das schlecht oder gut für so herausragende „Pseudowissenschaftler“ ist, wie wir auch generell von diesen Herren genannt werden, wie es z.B. die Damen und herausragenden Wissenschaftlerinnen Dr. Sally Balliunas oder Prof. Judith Curry sind, mögen diese selbst beurteilen. Vermutlich juckt es sie nicht, selbst wenn sie es wüssten. Doch zeigt es einmal mehr, wie sehr sich die FDP schon in die links-grüne Begriffswelt eingewöhnt hat.

Die potentiellen Wähler danken es ihnen. Gerade arbeitet man hart an der Unterschreitung der schon in Sichtweite befindlichen drei Prozent Schwelle, von Hürde kann man ja in diesem Bereich nicht mehr reden.

Und Mats Simmermacher legte dann auch gleich für die „Zuhörenden und Zusehenden“ richtig los.

Der Vortrag im Internet (hier abrufbar)

Leider rechnet er – wie vielfach seine berühmten Kollegen u.a. Stefan Rahmstorf auch – damit, dass sein Publikum seinen wissenschaftlich anmutenden Kurven und Behauptungen nicht im Detail folgen kann und deshalb glauben muss.

Das nutzte er ungerührt aus, bspw. wenn er Zeitachsen drastisch verkürzt, um die Graphen darin dann als Klimaänderungen zu verkaufen, oder wenn er bspw. plötzlich die Temperaturdimension bei der Erwärmung der Meere weglässt und dem staunenden Publikum eine Achse mit der Dimension Joule x 1022 vorlegt (Min. 38). Deren Trend ist natürlich positiv, sonst hätte er es nicht gebracht, um dann zu behaupten, dass sei „gemessen“ worden. Vielleicht glaubt er das ja selber, weil er sich in seinem Labor noch nie mit der Problematik der Bestimmung physikalischer Größen in globalem Maßstab beschäftigt hat.

Nur, wenn das so ist, dann ist das bestenfalls dumm, aber nicht wissenschaftlich. Wahr ist allein, dass es erst seit dem Jahr 2000 beginnend, Daten werden ab 2005 veröffentlicht, ein Forschungsprogramm existiert, bei dem autonome Schwimmkörper (ARGO Flotte) mit hochauflösenden Sensoren versuchen in einem Gebiet von 1000 x 1000 km, also 1 Mio km². das Profil bis in 2000 m Tiefe zu bestimmen versuchen. Alles andere davor ist bestenfalls klug geschätzt, bzw. aus anderen Quellen hochgerechnet. Ziel der ARGO Flotte ist den Wärmeinhalt dieser rel. riesigen Wassermenge auf 10 W/qm genau zu bestimmen. Die gesuchte Genauigkeit ist allerdings illusorisch, wie jeder Messtechniker2 sofort weiß, und auch die riesige Fläche schrumpft auf Punktgröße, wenn man sie in Beziehung zur Gesamtfläche der Ozeane von knapp 400 Mio km2 setzt.

Damit beinhalten sämtliche Daten, die Herr Simmermacher zeigt, und wir sprechen hier von wenigen Hundertstel Grad sowie deren Verläufen, im Vergleich riesige Fehlerbalken. Aber die lässt der „Wissenschaftler“ Simmermacher einfach weg. Und von vergleichbarer Güte ist auch der Rest seiner Behauptungen. Sie sind damit wirklich leicht zu widerlegen. Allein deswegen, weil sie schon hundertfach vorgetragen, und hundertfach widerlegt wurden.

Soviel als Einführung, und nun in die Sachdebatte.

Am 28. Juli 2020 wurde per Video-Schaltung eine Vortrags-Veranstaltung (https://www.youtube.com/watch?v=heI_CZtRIsM) abgehalten mit dem Titel „Klimawandelleugner auf dem wissenschaftlichen Prüfstand“.

Schaut man sich die Folien im Video durch, so wird deutlich, dass der Vortragende genau DAS macht, was er den Klima-Skeptikern vorwirft: Selektive Auswahl von passenden Behauptungen unter Auslassung von nicht passenden Fakten.

Anmerkung: Alle gezeigten Folien aus dem Vortrag sind Sreenshots aus dem YT Video zu Zitatzwecken, im Sinne des Urheberrechtes.

Unter diesen Gesichtspunkten hier in Folgendem einige Anmerkungen:

Zu Folie 3 :

Behauptungen des Referenten, wie er sie Skeptikern in den Mund legt.

  1. „Das Klima wandelt sich nicht“.

Uns ist niemand bekannt, der DAS behauptet; folglich – eine nahezu dümmliche und letztlich bösartige Unterstellung.

  1. „CO2 ist nicht die Ursache“.

In der Skeptiker-Gruppe gibt es mehrheitlich ernst zu nehmenden Wissenschaftler, welche die physikalische Wirksamkeit der Treibhausgase betonen. Einige sehen sie eher als unerheblich an, andere weisen ihnen eine genügend große Rolle zu. Daher lautet Frage auch dort n i c h t „Ist CO2 ein Treibhausgas?“, sondern „Wie groß ist die Wirkung von CO2, insbesondere von zusätzlichem CO2 ?“. Grundsätzlich unbestritten auch beim IPCC ist: Die Wirkung von zusätzlichem (anthropogenem) CO2 muss nach einem logarithmischen Gesetz abnehmen:

Genau DAS weiß auch das IPCC :

DAS bedeutet:

Die modellierte weitere Erderwärmung über 1°C hinaus beruht nicht auf der Wirksamkeit von CO2, sondern auf einer sekundären Verstärkungs-Hypothese; diese ist in den Messungen in der Atmosphäre jedoch nicht auffindbar:

Diese Zusammenhänge und Messungen scheinen dem Referenten nicht bekannt zu sein(?).

  1. „Der Klimawandel ist nicht schlimm“

Es bleibt wohl das Geheimnis des Referenten, was er wissenschaftlich unter „schlimm“ versteht: Ein schwammiger Begriff aus dem Kindergarten – oder hat uns der Referent hier eine wissenschaftliche Definition vorenthalten ?

     4. „Die Wissenschaft ist sich uneinig“

Ist dem Referenten eine Wissenschaft bekannt, wo grundsätzlich und „für alle Zeiten“ eine „Einigkeit“ besteht? Unter anderem und zum Beispiel bei der aktuellen CORONA-Debatte nicht!

Zu Folie 4 :

Die dort gezeigte Graphik (der unbestrittenen!) säkularen Erwärmung verbirgt den wichtigen Hinweis, dass die „Erwärmungs-Spitzen“ 1998 und 2015/16 nicht die Folge von anthropogenem CO2 sind, sondern verursacht wurden durch die Witterungs-Ereignisse „Super-El Nino“, mit der Folge, dass mittlerweile die Temperaturen wieder zurück gehen (Aktuell sind es 14,02 – ha,ha – °C):

Zu Folie 5 :

Die hier vom Referenten angesprochenen Erwärmungspause ist nun keine „Erfindung“ der Skeptiker, sondern eine Feststellung des IPCC :

So darf also der Referenten-Vorwurf des „Cherry Picking“ getrost an das IPCC weiter geleitet werden!

Wenn der Referent außerdem wiederholt auf die Tatsache hinweist, dass alle von ihm aufgeführten Institute zu sehr ähnlichen Verläufen kommen, um damit die Güte der Daten zu belegen, dann führt er wieder das Publikum in die Irre. Denn FAKT ist, alle Institute verwenden dieselben Rohdaten. Es gibt keine anderen. Diese sind allerdings nur auf wenige Prozent der Landmasse konzentriert, vor 1920 auf nur sehr wenige, dann bis 1965 etwas mehr und dann wieder weniger, und zudem von schlechter Qualität. Auf See sind die Messstellen noch viel weniger als auf Land, konzentrieren sich auf die Hauptschifffahrtsrouten – immerhin stellen die Ozeane 71 % der Weltoberfläche- und sind von noch schlechterer Qualität. Dieses Manko wird allerdings durch die viel höhere Wärmeträgheit des Wassers etwas gemildert.   Daher sind die Unterschiede nur den Methoden geschuldet, mit denen die qualitativ schlechten und wenigen Rohdaten aufbereitet werden. Es macht schließlich auch keinen Unterschied ob man den Mittelwert einer Zahlenmenge von links nach rechts, rechts nach links oder wie sonst immer bildet. Er bleibt immer gleich, nur wenn man andere, abweichende Zahlen (Daten) nimmt ändert er sich eventuell.

Zu Folie 6 : „Ungebrochene Erwärmung in den Ozeanen“:

Dort werden keine Temperatur-Messungen gezeigt, sondern „Wärmeanomalien mit der Dimension 1022 J“. Was darf man sich darunter vorstellen? Direkte Temperaturmessungen sind da doch wohl anschaulicher, und die zeigen das Gegenteil der Referenten-Behauptungen :

Überdies stellt der Referent Zeitreihen dazu als aus „Messungen“ gewonnen vor, ohne seinem Publikum mitzuteilen, dass es erst seit 2005 ein Projekt (ARGO Flotte s.o) gibt um wenigstens in einem vglw. winzigen Ausschnitte zu echten, evtl. brauchbaren Messungen zu gelangen. Alle Angaben davor sind reine grobe Schätzungen, eine Tatsache die der Referent tunlichst seinem Publikum verschweigt

Zu Folie 7 – 9 : „Massenverlust der Eisschilde“

Die Ergebnisse der NASA stehen in krassem Gegensatz zu den Darstellungen des Referenten:

Und auch den ESA-Auswertungen des Grönländischen Eisschildes gegenüber halten die Aussagen des Referenten nicht stand, denn die zeigen in der Realität das :

Zu Folie 10 :

Diese vom Referenten gezeigte Folie beweist(!) genau DAS, worauf die Skeptiker stets hinweisen :

Es gibt keine Beschleunigung des seit Jahrtausenden steigenden Meeresspiegels. Aber das kommt beim Referenten nicht vor. Er verschweigt einfach, dass der Meeresspiegel seit dem Ende der Eiszeit ständig steigt, seit einigen tausend Jahren mit ca. 15 ± 15 Zentimetern pro Jahrhundert.

Mehr noch: Es gibt viele Regionen, in denen sich der Meeres-Anstieg abschwächt, wie z.B. an der Nordsee-Küste :

Zu Folie 11 + 12 :

Leichter Beitrag der Sonne zur Erwärmung bis etwa 1980, danach eher kühlender Einfluss“

Woher der Referent diese nahezu abenteuerliche Aussage hat, bleibt sein Geheimnis. Möglicherweise hat er in dem international renommierte Buch „Die Kalte Sonne“ nur den Titel gelesen, und als Einziges das Wort „KALT“ verstanden !?Denn seine Folie (Minute 43:45), wie auch seine Ausführungen, zeigen einzig und allein die sog. TSI, also die Gesamteinstrahlung der Sonne auf die Erde. Er vernachlässigt völlig die vielfältigen anderen Einflüsse Sonne auf die Erde, wie sie sich besonders mit dem Sonnenwind manifestieren. Dieser wiederum moduliert die ständig auf die Erde einprasselnde kosmische Höhenstrahlung, wie Svensmark und Shaviv so überzeugend nachwiesen, und damit die Wolkenbildung. Diese hat einen Einfluss auf die Erdtemperatur, die um ein Vielfaches größer ist als die geringe Varianz der TSI.

F a z i t :

Die selektiven Folien und Aussagen des Referenten bei dieser FDP-Veranstaltung halten in weiten Teilen eines Überprüfung nicht stand, sondern sind absichtlich unvollständig, bzw. getunt und daher oft irreführend. Der Referent hat letztlich genau DAS gemacht, WAS er den Klima-Skeptikern vorwirft: Verdrehung von Argumenten und Fakten !

2 Das ist völlig absurd. Nicht nur weil man keinerlei Daten vor 2005 und früher hat, die einen Vergleich ermöglichen, schon gar nicht mit der erforderlichen Genauigkeit, sondern auch, weil die angegebene Genauigkeit niemals und unter keinen Umständen erreicht werden kann.
Wer das behauptet, hat in seinem Leben noch nie eine Temperatur-Messung, geschweige denn eine Messung unter erschwerten Bedingungen durchgeführt. Wenn Sie sehr gut sind, dann schaffen sie evtl. ± 0,5 ° oder ± 1 °. Aber auch nur dann, wenn die Biester in ihrer fünfjährigen Lebensdauer ständig gewartet und nachkalibriert werden. Was nicht geschieht. Mehr dazu hier.




Moderne historische Temperaturen

Beginnen möchte ich mit der Erläuterung, wo Colle Gnifetti überhaupt liegt. Das Ungewöhnliche an diesem Eisbohrkern ist nämlich, dass er aus Europa stammt, genauer aus den Alpen auf der Grenze zwischen Italien und der Schweiz.

Abbildung1: Orte, aus denen die in der Studie untersuchten Eisbohrkerne stammen.

Das ist gut, weil es in Europa einige der längsten Temperaturreihen aufgrund von Thermometermessungen gibt.

Interessant an diesem Standort ist, dass Eiskernbohrungen normalerweise an den buchstäblichen Enden der Erde, in der Antarktis und in Grönland und so weiter, erfolgen. Aber diese Stätte liegt nicht weit von der Margherita-Hütte entfernt in einer Höhe von über 4500 Metern.

Abbildung 2. Die beste Werbung aller Zeiten für den Beruf des Glaziologen.

Nun wollte ich sehen, wie gut die Eiskernaufzeichnungen mit den Temperaturaufzeichnungen übereinstimmen. Also berechnete ich drei Datensätze aus dem Berkeley Earth Festlands-Datensatz. (Ich habe den Festlands-Datensatz verwendet, weil ich mit einer Stelle an Land vergleiche. Es besteht jedoch nur ein minimaler Unterschied zur Verwendung ihres „Land- und Ozean“-Datensatzes).

Der erste von mir berechnete Datensatz ist die globale Temperaturanomalie. Der nächste Datensatz ist die Temperaturanomalie der nördlichen Hemisphäre. Schließlich betrachtete ich eine ungefähr quadratische Gitterbox von 6° Länge und 4° Breite um Colle Gnifetti selbst.

Merkwürdigerweise passen von diesen drei am besten die Daten der Nordhalbkugel zu den Aufzeichnungen von Colle Gnifetti. Abbildung 3 unten zeigt den Vergleich. Ich habe die Eiskerndaten linear angepasst, um die beste Übereinstimmung mit den Daten Berkeley Earth zu erzielen.

Warum die lineare Anpassung? Weil die Varianz einer einzelnen Eiskernaufzeichnung an einem Ort hoch oben auf einem Berg anders ist als z.B. die Varianz der durchschnittlichen Festlands-Temperatur auf der Nordhalbkugel. Dies erlaubt es uns, die Aufzeichnungen auf der gleichen Skala zu vergleichen.

Hier ist also der Vergleich zwischen Thermometerdaten und dem jüngstenen Ende der Colle Gnifetti Eiskerndaten. Die Datenquellen sind in der Grafik aufgeführt.

Abbildung 3. Temperaturen von Berkeley Earth nur auf dem Festland und Eiskerntemperaturen von Colle Gnifetti. Die Eiskerntemperaturen wurden linear angepasst, um die beste Anpassung an die modernen Daten zu erzielen, indem sie mit etwa 1,6 multipliziert und etwa 0,2°C abgezogen wurden. Im Hintergrund erkennt man die Bohrhütte am Colle Gnifetti.

Ich liebe es, wenn sich zwei völlig unterschiedliche Datensätze auf so hervorragende Weise aneinanderreihen. Meine Einschätzung ist, dass der Eiskern von Colle Gnifetti die Temperatur auf der Nordhalbkugel sehr gut reflektiert. Die einzige wirkliche Anomalie ist neueren Datums, wenn die beiden divergieren. Keine Ahnung, woran das liegt. Die Antwort kann in beiden Datensätzen liegen. Aber man beachte die ausgezeichnete Übereinstimmung der großen Spitzen und Schwingungen im früheren Teil des Datensatzes an.

Jetzt, da wir den Paläodatensatz mit dem modernen Datensatz und der Varianz abgeglichen haben, können wir einen Blick auf die Aufzeichnung der Temperaturschwankungen im Eiskern über die gesamte Zeitspanne der Daten werfen.

Abbildung 4. Colle Gnifetti Eiskerntemperatur, linear angepasst an das Best Fit aktueller Daten, wie in Abbildung 3 dargestellt. Der Hintergrund ist das Bohrgebiet, unten rechts ist die Bohrhütte bei Colle Gnifetti.

Dies ist ein äußerst faszinierender Temperaturdatensatz. Man erkennt die langsame Abkühlung von etwa 1400-1500 an in die Kleine Eiszeit sehen, die um 1700 ihre Talsohle erreicht hat.

Interessant ist auch der Gesamtbereich der schnellen Temperaturschwankungen. Zum Beispiel fiel die Temperatur in den fünfzig Jahren von 1190 bis 1240 um 2,3°C.

Und die Steilheit der natürlichen Erwärmungstrends ist aufschlussreich. In 35 Jahren, von 850 bis 885, stieg die Temperatur um 2,3°C.

Um einen weiteren Blick auf Erwärmung und Abkühlung zu werfen folgt hier ist eine Grafik der dreißigjährigen Abfolge der Trends in den Daten.

Abbildung 5. 30-jährige Abfolge der Temperaturaufzeichnung des Eiskerns von Colle Gnifetti.

Die aktuelle 30-jährige Abfolge der Temperaturtrends bewegen sich in der Größenordnung von 0,1 – 0,2°C/Dekade. Aber wie man sieht, ist diese Erwärmungsrate in der Aufzeichnung kaum ungewöhnlich. Tatsächlich war der Trend in der Aufzeichnungsperiode zweimal viermal so groß wie in der Neuzeit. Und die aktuelle Erwärmungsrate wurde in der Vergangenheit schon viele Male überschritten.

Also … welche Art von Schlussfolgerungen und Fragen können wir aus den Daten ziehen? Hierzu noch einmal Abbildung 4 von oben:

Abbildung 4 (Wiederholung)

Erstens: Was zum Teufel hat die großen Temperaturschwankungen verursacht? Der frühere Teil dieser Paläo-Aufzeichnung zeigt Schwingungen, die sowohl viel größer als auch viel schneller erfolgten als alles, was es in der heutigen Zeit gibt. Nennen Sie mich verrückt, aber auf einem Planeten mit natürlich auftretenden Erwärmungen von z.B. über zwei Grad C innerhalb von 35 Jahren von 850 auf 885 sehe ich nicht, wie man solche natürlichen Schwankungen ausschließen kann, wenn man sich die relativ unscheinbare und sicherlich in keiner Weise anomale moderne Aufzeichnung ansieht.

Damit komme ich zu meiner Empfehlung für den Bereich der Klimawissenschaft – man höre endlich auf, die Zukunft zu projizieren, und beginne über die Vergangenheit nachzudenken. Solange wir nicht erklären können, warum die Temperaturen um das Jahr 1200 herum abstürzten, in nur fünfzig Jahren um 2,3°C sank, um dann genauso wieder zu steigen, haben wir KEINE GRUNDLAGE FÜR IRGENDWELCHE PROJEKTIONEN!

Aber ich schweife ab … als nächstes sehen wir in den Daten eine Erwärmung ab dem Ende der Kleinen Eiszeit, also etwa ab dem Jahr 1700. Sie tritt in zwei Wellen auf. Der erste Temperaturanstieg, von etwa 1700 bis 1790, ist sowohl schneller als auch stärker als der nachfolgende Anstieg von etwa 1820 bis zur Gegenwart.

Tatsächlich ist der derzeitige Temperaturanstieg, angeblich durch CO2 angeheizt, der langsamste Anstieg der verschiedenen längerfristigen Temperaturanstiege in dieser Paläo-Aufzeichnung. Jeder andere Temperaturanstieg ist steiler. Ich dachte, dass CO2 angeblich für eine schnellere Erwärmung verantwortlich sein sollte, aber hier draußen in der realen Welt gibt es eine langsamere Erwärmung.

Weiter. In diesem Eiskernrekord herrschte zum Höhepunkt der späteren „Mittelalterlichen Warmzeit“ um 1190 ungefähr die gleiche Temperatur wie heute. Die frühere Wärmespitze um das Jahr 920 ist jedoch etwa ein halbes Grad wärmer ausgefallen. Es scheint, dass die gegenwärtigen Temperaturen nicht so ungewöhnlich sind, wie oft behauptet wird.

Zum Schluss noch die Vorbehalte. Der wichtigste Vorbehalt ist die zugrunde liegende Annahme der Invariabilität – dass ceteris paribus die Vergangenheit nach den gleichen Regeln funktioniert wie die Gegenwart.

Um zum Beispiel das jüngere Ende der Eiskerndaten linear so anzupassen, dass es am besten zu den modernen Temperaturdaten passt, multipliziert man es mit etwa 1,6 und subtrahiert etwa 0,2. Die obige Abbildung geht davon aus, dass Gleiches auch in der Vergangenheit zutrifft. Dies ist eine sehr vernünftige Annahme, wir kennen keinen Grund, warum es nicht so sein sollte … und doch …

Nächster Vorbehalt? Es ist nur eine einzelne Studie. Ich würde mich freuen, wenn die eine Auflösung von zwei Jahren ermöglichenden verbesserten Verfahren mehr genutzt würden.

Angesichts dieser Vorbehalte finde ich den Datensatz jedoch sehr aufschlussreich.

Hier an der nordkalifornischen Küste ist der Sommer in vollem Gange. An vielen Tagen heizen sich die Täler im Landesinneren auf. Die erwärmte Luft steigt auf und zieht kühle, feuchte Luft aus dem kalten, nahen Ozean an. Dies kühlt die gesamte, dem Meer zugewandte Seite des Küstengebirges ab, einschließlich unserer paar Hektar … so dass es heute hier kühl und neblig ist.

Die lokale Symmetrie gefällt mir sehr gut. An einem Ort wird es wärmer … und an einem anderen kälter. Wunderbar.

Ergänzung: Es ist sehr instruktiv, die gelisteten Temperaturen mit den Daten hier zu vergleichen: A Chronological Listing of Early Weather Events.

Link: https://wattsupwiththat.com/2020/07/24/ancient-temperatures/

Übersetzt von Chris Frey EIKE




Strom-Wasserstoff­umwandlung macht u.a. dann Sinn, wenn es darum geht, sehr teuren Strom zu erzeugen …

Nach 20 Jahren EEG fällt unserer Politik eine Lösung ein, die allerdings erst noch entwickelt werden muss

Deutschland fährt mit dem EEG sein Stromversorgungssystem erkennbar konsequent an die Wand. Die Abschaltung der Grundlastkraftwerke ist beschlossen, wie solche dann aber bereitgestellt werden soll, ist nicht bekannt. Man erkennt, dass die von der (angeblichen) „Energiefachfrau“ C. Kemfert propagierte Lösung: Wir brauchen gar keine Grundlast, denn „intelligente Netze“ lösen das Problem, zwar hilft, die „Intelligenz“ aber darin besteht: Ist kein Strom da, gibt es eben auch keinen. Und wer dann doch einen will, hat dafür hohe Kosten zu bezahlen, besser, den benötigten vorsorglich selbst zu speichern. Richtig „intelligent“ wird dann nur die konsequente Auflistung und Abrechnung der Zusatzkosten.

Irgendwie scheint man das den Bürgern (noch) nicht als die grandiose Lösung (un)intelligenter Politik zumuten zu wollen. Dafür gibt es doch noch zu viele nicht-GRÜN Wähler.
Obwohl unsere Versorger kein Problem damit haben, diese „intelligente“ Mangelverwaltung ihren Kunden als Zukunftslösung bereits anzupreisen und Vertriebsfirmen dazu gründen:
EIKE 18.05.2017: [13]Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

Könnte die ehemalige DDR das Strategie-Vorbild sein?

Nun haben solche, auf stetigem Mangel basierenden Versorgungsmodelle in der ehemaligen DDR gut funktioniert, zumindest bis zu dem Zeitpunkt, als es zu vielen Bürgern dann doch „auf den Keks“ ging. Das lag aber nach heutiger Lesart nicht am Lösungssystem, sondern an der damals noch fehlenden „Intelligenz“. „Intelligent“ Mangel zu haben, ist deshalb die politisch gewollte Zukunftslösung.
Unsere unfehlbare Kanzlerin wurde in und mit einem solchen System sozialisiert. Ein Gedanke drängt sich deshalb auf: Hat sie das Ziel, nun ganz Deutschland in solche – für sie aufgrund ihrer dortigen Sozialisierung „heimelige“ – Verhältnisse zu bringen?

Herr Thomas Kreuzer von der CSU erzählte es etwas höflicher ausgedrückt im BR24 Sonntagsgespräch [8] [9]. „Kompetent“, wie unsere Politiker heutzutage durchgängig sind, konnte er allerdings einige der gelisteten Probleme verneinen, weil er die sicher greifende Lösung wusste: Man muss nur noch die erforderliche Technik entwickeln:
Thomas Kreuzer: [8]Wir müssen also … die Maßnahmen so wählen, dass wir Erfolg haben, und dies ist meines Erachtens nur durch einen Durchbruch in der Technik möglich. Und wenn es nicht gelingt, Energie zu speichern, was wir im Moment nicht können … zum Beispiel mit Wasserstoff, dann wird es ganz, ganz schwierig, die Ziele zu erreichen …

Eine seit über 30 Jahren nicht in die Gänge gekommene Technologie wird es nun richten

Nun ist die Wasserstofftechnologie schon „uralt“ und an der Brennstoffzellentechnologie wird seit mindestens 30 Jahren entwickelt. Und diese letzten Dreißig Jahre hat es erkennbar keinen Durchbruch gegeben.

Geradezu ein Veteran ist dieser Technologie ist die Firma Ballard Power. Auch damals geschah etwas Ähnliches – und scheiterte gnadenlos. Der Aktienkurs erzählt lückenlos diese Geschichte, deren Wiederholung nun ansteht:

Bild 1 Kurs Ballard Power seit Beginn des ersten Brennstoffzellenbooms Ende des letzten Jahrhunderts

Aber Politiker wissen inzwischen: Probleme liegen grundsätzlich nur daran, dass nicht genügend Geld ausgegeben wurde.
Also wurde der sichere Kardinalfehler behoben und den Versprechern der endlich richtigen Lösung Geld in Hülle und Fülle locker gemacht.

Damit soll die doch plausible Rechnung gelingen: Wenn eine weibliche Person 9 Monate benötigt, um ein Kind zu gebären, brauchen 9 weibliche Personen nur noch einen Monat (genau das umzusetzen, probiert die EU schon mal unter der Ärztin v. d. Leyen mit ihrer Corona-Impfstoffkampagne). Bei der Wasserstoffstrategie hat diese einfache Divisionsrechnung noch einen zusätzlichen Haken: Das verfügbare (Technologie-)„Sperma“ weist unglaubliche Mängel auf, die – um es mit einem Vergleich zu sagen – mit Sicherheit zu einer Problemschwangerschaft und Geburt eines*r stark bis schwerst-Behinderten führen.

Aiwanger präsentiert eierlegende Wollmilchsau [6]

In einem Video informierte Wirtschaftsminister Aiwanger in seiner unnachahmlichen Art und niederbayerischen Präzision über die neue, bayerische Wasserstoffstrategie:
H. Aiwanger ab 00:44: Russland würde uns Wasserstoff in beliebigen Mengen zu günstigen Preisen liefern können. Wir denken an Nordafrika. Es kann Marokko sein. Und es sind große, internationale Herkünfte von Australien bis Chile in der Debatte.

Bild 2 BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie. YouTube Link

Während sonst alles Mögliche nun verstärkt lokal erzeugt werden soll, bis herunter zur Virus-Schutzmaske, ist es nun besonders strategisch, mit das Wichtigste, was ein Technologieland benötigt: Seine Energie, auszulagern und rund um die Welt – mit Schwerpunkt Afrika (lt. Entwicklungsminister Müller) – einzukaufen und dazu über weiteste Strecken zu transportieren.

Natürlich macht Bayern eine solch geradezu idiotische Strategie (rein persönliche, unbelegte Meinung des Autors, die niemand teilen muss) nicht alleine.
Im Kern ist es ein Strategiethema des Bundes. Und dort sind diesmal nicht nur die Vorreiter (besonders höflich ausgedrückt) an selten(st) erkennbarer Kompetenz aber absoluter, bedingungsloser Merkelhörigkeit, Frau S. Schulze und P. Altmaier beteiligt, auch unser sonst eher glücklose CSU-Entwicklungsminister ist dabei. Und wenn Herr Dr. Müller eine seiner ausgefeilten Strategien angekündigt hat, kommt immer irgendwann in irgendeiner Zukunft der sichere Durchbruch. Zumindest das Geld dafür ist mit Sicherheit ausgegeben (und oft in erheblichem Maß auf speziellen Konten gelandet).
IWR.de 10.06.2020: [10] Bundesregierung verabschiedet Nationale Wasserstoffstrategie
Berlin – Das Bundeskabinett hat heute (10.06.2020) die lange erwartete Nationale Wasserstoffstrategie beschlossen. Wasserstoff soll künftig entscheidend zur Dekarbonisierung wichtiger deutscher Industriebranchen sowie des Verkehrssektors beitragen.
… Die jetzt verabschiedete Wasserstoffstrategie soll nach dem Wunsch der Bundesregierung die Weichen dafür stellen, dass Deutschland bei Wasserstofftechnologien die Nummer 1 in der Welt wird. Dazu sollen die Potenziale für Wertschöpfung, Beschäftigung und den Klimaschutz möglichst schnell erschlossen und genutzt werden. „Denn Wasserstoff wird ein Schlüsselrohstoff für eine erfolgreiche Energiewende sein“, so Bundeswirtschaftsminister Peter Altmaier nach dem Kabinettsbeschluss. Er werde als Energieträger der Zukunft sowohl in Deutschland als auch weltweit einen wichtigen Beitrag zur Erreichung der Klimaziele leisten. Dabei wolle Deutschland eine Vorreiterrolle einnehmen, wie vor 20 Jahren bei erneuerbarer Energien.
… „Grüner Wasserstoff und seine Folgeprodukte wie Methanol können das saubere Öl von morgen werden“, so die Einschätzung von Bundesentwicklungsminister Dr. Gerd Müller. Müller betont, dass in diesem Zusammenhang vor allem Länder in Nordafrika aufgrund des hohen Solarpotenzials als geeignete Produktionsstandorte für grünen Wasserstoff in Frage kommen. Gemeinsam mit Marokko werde jetzt die erste industrielle Anlage für Grünen Wasserstoff in Afrika entwickelt. „Damit schaffen wir dort Arbeitsplätze für die vielen jungen Menschen, stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele wirksam zu erreichen“, so Müller weiter.

Tritt Wirtschaftsminister Aiwanger in die Fußstapfen von F. J. Strauß und Bayern wird ein weltweiter Technologieführer?

Manche können sich noch erinnern: Der ehemalige, Bayerische Ministerpräsident F. J. Strauß machte aus einem bettelarmen Agrarstaat durch Konzentration auf die damals völlig neuen Technologien Elektronik (und moderne Militärtechnik) ein Erfolgsmodell, das man heute (noch) sehen und auch (noch) vorzeigen kann. Dies gelang ihm damals auch, weil die reichen Montanländer viel zu „satt“ und stolz waren, sich für solche Technologie zu interessieren.

Scheinbar besteht eine solche Konstellation heute wieder im Land. Tesla baut seine alles andere vernichtende Innovation Elektroauto im Osten und die parallel laufende Solarstrategie wird bald flächendeckend viele Handwerksbetriebe und Installateure beschäftigen … Da hat niemand mehr Zeit und Ressourcen für Wasserstoff.

Eine geradezu ideale – in der Geschichte so seltene Gelegenheit – für Wirtschaftsminister Aiwanger, in einem zum Beispiel wegen der Autokrise derzeit und vielleicht noch viel länger stark unterbeschäftigtem Land das Steuer herumzureißen und damit in die Fußstapfen des geradezu legendären F. J. Strauß zu treten, also Bayerns Geschichte „mit zu schreiben“ …

Made in Bavaria soll zum Wasserstoff-Gütesiegel werden

Wenn Aiwanger informiert, ist „Kompetenz“ spürbar, zumindest, so lange er buchstabengetreu vom Blatt abliest, was er allerdings oft vergisst. Erkennbar hat er Redenschreiber*innen, die gut fabulieren können:
[5] Bayerns Wirtschafts- und Energieminister Hubert Aiwanger hat die Bayerische Wasserstoffstrategie vorgestellt. Danach will sich der Freistaat zu einem weltweiten H2-Technologieführer entwickeln.
Aiwanger: „Made in Bavaria soll zum Wasserstoff-Gütesiegel werden. Mit unseren hervorragenden Forschern und den innovativen Tech-Unternehmen werden wir eine Wasserstoffwirtschaft entwickeln, die den Hightech-Standort Bayern stärkt, Arbeitsplätze schafft und nicht zuletzt auch den Transformationsprozess der bayerischen Fahrzeug- und Zulieferindustrie unterstützt.“

Wasserstoff (H2) und bayerische Innovationskraft sollen im Verbund Wohlstand sichern und zugleich den Ausstieg aus der Nutzung fossiler Energieträger voranbringen. Angestrebt werde dabei eine Arbeitsteilung zwischen dem Technologieland Bayern und Regionen, die grünen Wasserstoff produzieren. „Wir wollen die weltweit führenden Wasserstofftechnologien entwickeln. Unsere künftigen Partner nutzen dann unsere Innovationen dank nahezu unbegrenzt verfügbarer erneuerbarer Energien wie Sonne und Wind für die Erzeugung, den Transport sowie die Verwendung von grünem Wasserstoff“, erläuterte Aiwanger.

Zur Marktaktivierung wird die Staatsregierung zudem kombiniert Elektrolyseanlagen und Brennstoffzellenfahrzeuge wie Busse und Nutzfahrzeuge/Lkw fördern. Damit sollen vor allem neue Wertschöpfungsmöglichkeiten für Tankstellen-Standorte in der breiten Fläche geschaffen werden: an kommunalen Betriebshöfen, bei Stadtwerken, für Fuhrpark- und Omnibusunternehmen. Zudem soll 2021 die weltweit erste LOHC-Tankstelle in Erlangen den Betrieb aufnehmen. Noch in diesem Jahr wird erstmals innovative bayerische Brennstoffzellen-Technologie in einem umgebauten Lkw-Prototypen auf Bayerns Straßen fahren.

Wasserstoff aus Elektrolyse: Was schrieben Fachpersonen, bevor unsere Politik die Lösung vorschrieb?

Es lohnt, Publikationen zu lesen, die verfasst wurden, als Fachpersonen noch Fachwissen und nicht politische Vorgabenerfüllungen publizierten:

Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Karlsruher Institut für Technologie: [7] Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung
Wasserstoff ist ein höchst flüchtiges Gas mit einer geringen volumetrischen Energiedichte. Daher muss man zum Transport und zur Lagerung entweder auf extrem tiefe Temperaturen (-255 °C – fast wie im Weltraum) oder auf extrem hohe Drücke (700 bis 1000 bar – wie am Meeresgrund des Marianen Grabens) ausweichen. Die dazu erforderliche Anlagentechnik ist unvermeidlich aufwändig und somit teuer. Außerdem sind die Wirkungsgrade grundsätzlich schlecht, weil viel Energie zur Erzeugung dieser extremen Bedingungen benötigt wird. Da diese Zusammenhänge physikalisch bedingt sind, ändert sich daran auch in ferner Zukunft und auch mit beliebig hohem Forschungsaufwand gar nichts.

Das bedeutet ganz konkret: Für eine Umstellung des Pkw-Verkehrs auf Wasserstoff müssten wir die gesamte heutige Infrastruktur für Lagerung, Verteilung und Verkauf komplett neu bauen. Und zwar wegen der geringeren Energiedichte nahezu doppelt so groß, also doppelt so viele Tankschiffe, doppelt so große Zwischenlager, doppelt so viele Tank-Lkws und doppelt so viele Bodentanks in den Tankstellen. Außerdem müssen wir alles in Kryotechnik für Temperaturen nahe am absoluten Nullpunkt bauen, wodurch die Kosten noch einmal in etwa verdoppelt.
Und dann brauchen wir auch noch die Produktionsanlagen: Für die Erzeugung des Stroms, für die Elektrolyse und für die Verflüssigung.
Eine gasförmige Verteilung von Wasserstoff im Großmaßstab, das heißt für hunderttausende oder gar Millionen von Pkws, ist vollkommen unmöglich. Die technisch erreichbare volumetrische Energiedichte von gasförmigem Wasserstoff ist nochmals um knapp eine Größenordnung (Faktor 10) niedriger als die von flüssigem Wasserstoff. Dementsprechend würden die Aufwendungen für die Infrastruktur ins Unermessliche steigen.
Bedingt durch die schlechte Wirkungsgradkette, ausgehend vom Off-Shore Windpark bis zum Elektromotor im Auto einschließlich flüssiger Verteilung und Hochdruckbetankung, ist der Bedarf an Primärenergie für die Erzeugung von Wasserstoff für Brennstoffzellen in Pkws rund 5- bis 6-fach höher als bei Batteriefahrzeugen.

… Es ist leicht abzuschätzen, dass der Strombedarf für den Wasserstoffbetrieb aller 47 Mio. Pkws in Deutschland rund 1,5-fach größer ist als die gesamte heutige Stromproduktion. Daher müssten wir die derzeitig erzeugte Menge an Strom also mehr als verdoppeln. Gleichzeitig wollen wir auch noch alle Kern- und Kohlekraftwerke abschalten und durch regenerative Stromerzeugung ersetzen – wie soll das gehen? Die Kosten für den Aufbau einer Infrastruktur für die Erzeugung und Verteilung von flüssigem Wasserstoff sind schier unvorstellbar und betragen alleine für Deutschland über hundert Milliarden Euros. Genaue Zahlen sind unbekannt und nicht seriös anzugeben, da die erforderlichen Einrichtungen noch niemals in einer entsprechenden Größe und Menge gebaut wurden.

… Die Ladegeschwindigkeit von FCEVs (Wasserstoffautos) ist unbestritten schneller als die von BEVs (Elektroautos) – rund 10 Minuten für einen vollen Tank mit 400 bis 600 km WLTP Reichweite, je nach Fahrzeug. Das bedeutet aber, dass man wie früher neben dem Fahrzeug wartet und keine Zeit für eine Pause hat. Anschließend muss die Tankstelle einen internen Höchstdruckspeicher mit 900 bis 1000 bar nachfüllen, so dass für rund eine halbe Stunde kein weiteres Fahrzeug bedient werden kann (oder nur mit wesentlich langsamerer Füllgeschwindigkeit). Die Kosten einer Wasserstofftankstelle sind übrigens astronomisch hoch und übertreffen die Kosten einer Schnellladesäule um mehr als eine Größenordnung.

Herstellungsaufwand und Preise Die Herstellung von Brennstoffzellen-Pkws ist gegenüber heutigen Verbrennerfahrzeugen (ICE = Internal Combustion Engine) deutlich aufwändiger. Das resultiert zum einen aus den größeren Fahrzeugabmessungen und zum zweiten aus den vielfältigen Nebenaggregaten, die zum Betrieb eines Brennstoffzellenstacks erforderlich sind.44 Daraus ergeben sich nicht nur höhere Anschaffungspreise, sondern auch höhere Wartungs- und Reparaturkosten sowie eine kürzere Lebensdauer

Um es einmal ganz deutlich zu sagen: Brennstoffzellen-Pkws sind technisch, ökonomisch und letztlich auch ökologisch ein Unsinn. Ebenso unsinnig ist der Aufbau einer Pkw-Tankstelleninfrastruktur für Wasserstoff. Das alles dient einzig den kommerziellen Interessen einiger großer Wasserstoff- und Erdölkonzerne und ist eine Verschwendung von Steuergeldern. Ich gebe dem Thema Wasserstoff für die Zukunft von Pkws keinerlei Chancen gegenüber Batteriespeichern. Wir täten gut daran, nicht auf eine veraltete und aus grundsätzlichen physikalisch/chemischen Gründen unterlegene Technik zu setzen, denn das bringt den Industriestandort Deutschland in Gefahr.

Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium (Auszüge): [2] Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg

Wasserstoff aus Strom oder „power to gas“ also die Umwandlung von hochwertigem Strom in die einfachen Brennstoffe Wasserstoff und/oder Methan führt aus prinzipiellen naturwissenschaftlichen Gründen, die mit dem 2. Hauptsatz der Thermodynamik zusammenhängen (Wertigkeit der Energie und Energieentwertung) immer zu Verlusten von in der Praxis 2/3 bis 3/4 des Energiegehalts des Stroms. Bei der Rückverstromung werden also in der Regel nur 1/4 bis maximal 1/3 des eingesetzten Stroms, also des gleichen Produkts, zurückgewonnen….

In einem konkreten Versuch der Universität Kiel in Büsum im Jahr 2003 gingen sogar zwischen 85 % bis 87 %, also mehr als 5/6 des eingesetzten Stroms ungenutzt verloren, nur 13 % bzw. 15 % des eingesetzten Stroms konnten wiedergewonnen werden [1]. Die Energieverluste von 2/3 bis 3/4 bleiben auch dann bestehen, wenn nicht rückverstromt wird. Auch in anderen Anwendungsbereichen wie im Verkehr ergibt sich, dass eine Strom-Wasserstofflokomotive 3-5 mal mehr Energie verbrauchen würde, als eine Elektro oder Diesellokomotive, Strom-Wasserstoffautos benötigen 3-4 mal mehr Energie als Elektroautos und „normale“ Autos. Beim Einsatz in der Industrie verhalten sich die Relationen in der Regel nicht anders.

Betrachtet man die Verluste isoliert, so sind diese Verluste beim Strom-Wasserstoffweg mehr als 30 mal höher als bei effizienten Speichern. Diese Verluste müssen durch zusätzlichen Strom und durch zusätzliche Stromerzeugungsanlagen ausgeglichen werden. Dieser zumeist nicht betrachtete Aspekt macht den „Wasserstoff aus Strom“- Weg nicht nur extrem verlustreich, sondern auch extrem teuer.

Aus all diesen Gründen trägt in einer der „Leituntersuchungen“ zur Energiewende der Bundesregierung, der Studie „Wege zu 100 % erneuerbarer Stromversorgung“ des Sachverständigenrats für Umweltfragen, Wasserstoff als Speicher überhaupt nicht, nicht in einer Stunde des Jahres zur Systemoptimierung bei. Strom-Wasserstoff und „power to gas“ spielt also in dem wissenschaftlich begründeten Konzept der Energiewende als Problemlösung gar keine Rolle

Ein Wasserstoff – Feldversuch mit allem dazu gehörigem Equipment – vom Elektrolyseur bis zum Wasserstoffmotor – wurde vor 10 (Anmerkung: Beendet ungefähr im Jahr 2003) Jahren vom schleswig-holsteinischen Wirtschaftsministerium in einem Projekt beim Forschungs- und Technologiezentrum Westküste der Universität Kiel in Büsum gefördert.
Im zusammenfassenden Bericht heißt es:
„Man kann aus den Werten nun den Wirkungsgrad aus unseren Versuchen berechnen. Betrachtet man die Wasserstoffgasspeicherung bei 15 bar, kommt man auf einen Wert von 15 %, geht man über die Speicherung bei 200 bar, so ergeben unsere Versuche 13 % Stromausbeute des ursprünglich in den Elektrolyseur eingespeisten Stromes“ (Anmerkung:[1]) 13 – 15 % des dem Netz entnommenen Stroms konnten zurückgespeist werden; 85 % bzw. 87 % des Stroms gingen bei der Umwandlung von Strom in Wasserstoff und Rückumwandlung in Strom in dem konkreten Versuch zu Wind-Wasserstoff 2003 am FTZ in Büsum verloren. An dem Versuch waren immerhin bedeutende Fachfirmen wie Norsk Hydro und Jenbacher beteiligt.

Seit 2012 existiert eine Skizze für ein konkretes Wasserstoff-Speicher-Projekt in Schleswig-Holstein, das mit positiven Argumenten „klimaschonend und effizient“ begleitet wurde. Bei Licht betrachtet ist jedoch das Gegenteil der Fall.
Folgende Daten: Es wird unter Einsatz von einer Beladeenergie von 35 GWh Strom aus dem Stromnetz (hier sei 100 % Windenergie unterstellt) in eine vorhandene Kaverne gepresst, was bei Berücksichtigung der Verluste in die Ein-/und Ausspeisung aus der Kaverne 17 GWh ausspeicherbaren Energiegehalt in Form von Wasserstoff ergibt. (GWh Gigawattstunde = 1 Mio. kWh) Eine überschlägige Rechnung ergibt hieraus folgende Bilanz: a. Speicherwirkungsgrad: die angegebene Beladeenergie von 35 GWh Strom entspricht dem Jahresertrag von etwa 5 Windkraftanlagen mit 3 MW bei 2300 Vollbenutzungsstunden – wird in 17 GWh ausspeicherbarem Energiegehalt in Form von Wasserstoff umgewandelt (Wirkungsgrad wegen der Einpressverluste in die Erde nur ca. 50 % statt der oben angegebenen 80 %) Hieraus kann man mit einem Motor / einer Brennstoffzelle bei realistischen 40 % Wirkungsgrad etwa 6,7 GWh, (ca. 1/5 der Ausgangsmenge) bei sehr optimistischen 50 % etwa 8,5 GWh Strom (ca. 1/4 der Ausgangsmenge) wiedergewinnen.
Der Strom von etwa 4 der 5 Windkraftanlagen geht ungenutzt, vollständig und unwiederbringlich verloren; die Anlagen kosten aber Geld und benötigen Fläche.

Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!

steht in der folgenden Stellungnahme [4] Dr. Geisenheiner at al. 25.03.2020 (Auszüge): Fachliche Stellungnahme Wasserstoffwirtschaft
Energieverschwendung pur!
Die Wasserstoffwirtschaft schafft dabei mehr Probleme als sie löst. Die Energieeffizienz für die Nutzung bei Fahrzeugen und bei Wärme ist katastrophal schlecht. Das würde exorbitante Stromerzeugung erfordern. Die Energiewende im Sektor Verkehr ist schon nicht mit der Batterie-basierten E-Mobilität zu schaffen. Mit der Wasserstoffwirtschaft, die sehr viel schlechtere Wirkungsgrade aufweist,
Der rechnerisch nötige Ausbau der VEE für die Dekarbonisierung mit Sektorkopplung auf mehr als das 15-fache ist wegen des Flächenbedarfs, der Umweltschäden und der gewaltigen Kosten nicht möglich. Die Bürgerinitiativen, unterstützt vom Groll der Betroffenen, werden sich zusätzlich dagegenstellen.

Das kann keiner bezahlen
Die Kostendimension einer Wasserstoffwirtschaft führt nach einer groben Abschätzung zu 0,22€/kWh für die Anwendung Heizen 2. Das ist rund 5-fach teurer als der heutige Erdgaspreis.
Eine ähnliche Situation ergibt sich im Transportsektor. Hier sind die H 2-Treibstoffkosten auch 5-fach teurer, als mit heutigen Kraftstoffen. Eine Steuerbefreiung kann für den Endkunden die Kosten etwas mildern, es bleiben dann aber die Einnahmeverluste der Steuer, die auf anderem Wege zu kompensieren sind. Der Ansatz Wasserstoff über VEE zu erzeugen und so CO2-Ausstoß einzusparen, ist
Technischer und ökonomischer Unsinn. Konzeptloser Aktionismus
Dauernd gibt es neue Ideen, die grundsätzliche Mängel der Energiewende beheben sollen, ohne dass dies mit ihren Folgeauswirkungen im Rahmen eines ganzheitlichen Konzepts durchdacht und quantifiziert wurde. Die erneute Idee einer großkalibrigen Wasserstoffwirtschaft als Komponente der Energiewende wird der Industrienation Deutschland schwersten Schaden zufügen.
Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!

Das Öko-Institut e.V. schrieb dazu: [3] … Falls sich die Stromkosten auf 0 € / MWh reduzieren sollten, verringern sich die Erzeugungskosten für Wasserstoff auf 29 € / MWh und die Kosten für synthetisches Methan auf 70 € / MWh.
Bedingt durch die hohen Wirkungsgradverluste und die hohen Kapitalkosten sind die Kosten für Elektrolysewasserstoff fast dreimal höher als der aktuelle Preis für Erdgas. Die Kosten für synthetisches Methan liegen nahezu um den Faktor 4,5 höher als die aktuellen Kosten von Erdgas
… In den nächsten zwanzig Jahren zeichnen sich also keine sinnvollen Anwendungsmöglichkeiten für synthetisches Methan als Flexibilitätsoption für den Stromsektor ab, die über einige wenige Demonstrationsprojekte hinausgehen …

Wirkungsgrad der Power to Gas Technologie mit Rückverstromung

Die vorhergehenden, etwas unübersichtlichen Darlegungen finden sich in einem ganz aktuellen Paper zusammengefasst:
Dr. Geisenheiner at al. 25.03.2020: [4] Fachliche Stellungnahme Wasserstoffwirtschaft

Daraus die Wasserstoff-Prozess-Verlustgrafik:

Bild 3 [4] Wirkungsgrad der Prozesskette Strom – Wasserstoff – Rückverstromung (die Transportverluste werden bei längeren Transortzeiten bedeutend größer als in dieser Grafik angegeben)

Keinen Schreck bekommen: So viel kostet mit Wasserstoff zwischengespeicherter Strom

In einer Artikelserie wurden damals die Kosten von Speichertechnologien grob dargestellt:
EIKE 18.06.2015: [11] Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Für Powert to Gas mit Rückverstromung wurde der Netto-Ausspeisepreis damals mit 20 €ct/kWh bei einem Strombezug von 4,8 €ct/kWh abgeschätzt (mit damals erheblich besser angenommenen Wirkungsgraden und ohne Transportverluste).

Beispiel: Der Ökolieferant bekommt für seinen Strom – ob er ihn einspeist oder abregeln muss – beispielsweise 4 €ct/kWh bezahlt. Der private Endkunde bezahlt dafür aufgrund der Steuern und Zusatzkosten ca. 30 €ct/kWh an seiner Steckdose
Über Powert to Gas zwischengespeicherter Strom kostet netto an der Kostenstelle, so er, mit 4 €ct/kWh entnommen wurde nun mindestens 20 €ct/kWh. Darauf kommt nun die Kostentreppe, wodurch der private Verbraucher dafür linear hochgerechnet 1,5 €/kWh bezahlt.

Das erscheint hoch. Allerdings kam der Autor beim damaligen Nachrechnen einer neueren Pilotanlage auf noch erheblich höhere Kostenwerte mit geschätzten 33,6 ct / kWh für den am Entnahmeknoten zurückgespeisten Strom [12]. Ein „Verbilligungseffekt“ ist bisher also nicht erkennbar. Sicher ein Grund, warum bei der Power to Gas Technologie immer nur Erfolge, aber nie die vollständigen Kosten ausgewiesen werden.

Selbstverständlich kann die Politik die Nebenkosten beeinflussen. Dann fehlt ihm aber dieses Geld für die vielen Maßnahmen zu Weltrettungen, Pandemie-Ausfallzahlungen und EU-Transferzahlungen an unsere privat reicheren – aber immer geldhungrigen – EU-Nachbarn. Es ist deshalb unwahrscheinlich, dass größere Abstriche bei den Steueraufschlägen gemacht werden (können). An den erheblichen Fixkostenaufschlägen kann die Politik sowieso nichts drehen, sondern nur subventionieren.

Man mache sich also die neue, politische Vorgabe klar: Strom im Wert von ca. 4 €ct/kWh wird dank dieser grandiosen Strategie mit „umgewandeltem“ Strom zu mindestens 20 … 33 €ct/kWh „gemischt“. Damit liegt der künftige Strompreis für Privatverbraucher je nach erforderlichem Speicherstromanteil (können im Winter für bis zu 14 Tage fast 100 % sein), irgendwo zwischen 30 €ct … 1,5 (2,5) €/kWh.
Nach heutigem Stand. Kommt der Wasserstoff weit weg aus dem Ausland, sind nochmals Kostenerhöhungen von 10 … 20 % zuzufügen und das wird bestimmt nicht das Ende darstellen.

Wie hoch muss die Sturheit des Festhaltens an der Abschaltung der Grundlastkraftwerke und panische Angst vor dem technischen Scheitern des EEG in den politischen Köpfen schon sein, um trotzdem die Wasserstoffstrategie zu starten

Beim Vergleich der Darstellungen der Fachpersonen mit den euphorischen Strategieankündigungen unserer Politiker:
[6] «Wir wollen bei den neuen Wasserstofftechnologien hin zu grünem Wasserstoff weltweit führend sein.» – Nicht weniger strebt die deutsche Regierung nach den Worten von Wirtschaftsminister Peter Altmaier (CDU) mit einer am Mittwoch verabschiedeten Nationalen Wasserstoffstrategie an. Diese sei die größte Innovation im Bereich Klimaschutz und Energiewende seit dem Entscheid, mit dem Erneuerbare-Energien-Gesetz (EEG) in großem Ausmaß Energie aus Sonne, Wind und Biomasse zu fördern, fügte Altmaier an, als er die Strategie zusammen mit Vertretern weiterer Ministerien den Medien vorstellte …

… kommen unweigerlich (aber nicht neu) Fragen zum geistigen Zustand unserer Politikkaste auf. Es zeigt jedoch nur, dass das vergleichbare (Pseudo-)Problem Klimawandel bezüglich der „Lösungsstrategie“ kein Einzelfall, sondern seit „Merkel“ ganz einfach Methode ist, die an ein Land erinnert, in dem unsere unfehlbare Kanzlerin sozialisiert wurde: (Stur) Vorwärts immer – rückwärts nimmer.
Im Klartext: Wenn etwas angeordnet ist, darf auf keinen Fall über den Sinn nachgedacht und schon gar nicht korrigiert werden. Es ist immer geradlinig bis zum (bitteren) Ende durchzuführen.
Ein in der Deutschen Geschichte seit dem letzten Kaiser bekanntes Verhalten „unfehlbarer Führungspersonen“. Allerdings ist auch das vollkommene Versagen der Opposition in Deutschlands Geschichte symptomatisch. Das (wieder) erreicht zu haben, ist für Merkel also nicht einzigartig.
Nun ist es allerdings nicht mehr nur ein „Problem Merkel“, sondern auch ein „Problem Söder“, der den GRÜNEN ebenfalls bedingungslos in den Hintern kriecht.

Neben dem EEG wird es das nächste Subventionsgrab werden

NZZ: [6]Allerdings hat er mindestens zwei Pferdefüße: Noch ist er meist zu teuer, um konkurrenzfähig zu sein, und in Deutschland gibt es viel zu wenig erneuerbare Energie für seine Herstellung. Dem versucht die Wasserstoffstrategie mit 38 Einzelmaßnahmen abzuhelfen. So stellt das Papier unter anderem Investitionskosten-Zuschüsse für den Betrieb von Elektrolyseanlagen und den Aufbau eines Wasserstoff-Tankstellennetzes in Aussicht.

Und ausgehen wird es wie bei Solar und teilweise Windkraftanlagen, nun allerdings gleich von vornherein als besondere Strategie ausgegeben: Produziert wird das wichtige Gut Energie im Ausland:
[6] … Gleichwohl wird Deutschland laut dem Papier mittel- und langfristig in erheblichen Ausmaß Wasserstoff importieren müssen. Deshalb will die Regierung Partnerschaften mit Ländern eingehen, in denen aufgrund der geografischen Lage Wasserstoff effizient produziert werden kann. Dies gilt namentlich für das sonnenverwöhnte Afrika.

Und wie beim Klimawandel sind Forschung und Industrie nach anfänglichem Zögern wieder begeistert

10.06.2020 BDEW zur Nationalen Wasserstoffstrategie
… „Es ist gut, dass die lange erwartete Nationale Wasserstoffstrategie der Bundesregierung nun endlich vorliegt. Sie formuliert wichtige Grundlagen für die Dekarbonisierung von Industrie, Verkehr und Wärmesektor mit gasförmigen Energieträgern. Darauf müssen wir aufbauen und in der Umsetzung Tempo machen. Mit der Strategie zeigt die Bundesregierung, dass leitungsgebundene, gasförmige Energieträger ein zentraler Baustein der Energiewende und für das Erreichen der Klimaschutzziele sind“, sagt Kerstin Andreae, Vorsitzende der BDEW-Hauptgeschäftsführung.
BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie:
00:22 Peter Wasserscheid, Zentrum Wasserstoff Bayern: Also ich glaube, technologisch hinken wir nicht hinterher … der Aufbruch, diese Technologie wirklich zu industrialisieren und eine Wasserstoffwirtschaft zu schaffen, der war bisher nötig.

Bezüglich der Kosten ist unseren Politikern längst eine Lösung eingefallen: Den CO2-Preis so hoch zu schrauben, dass die bisher „viel zu billigen Energien“ so teuer wie durch Elektrolyse erzeugter Wasserstoff werden

Wenn etwas nicht zu konkurrenzfähigen Preisen hergestellt werden kann, gibt es einen Lösungsweg: Die Wettbewerbsprodukte auf das vergleichbare Niveau verteuern. In einer vom Staat ausgehebelten Wirtschaft ist das machbar, und dank dem Klimak(r)ampf inzwischen auch problemlos umzusetzen.
Es geschieht, indem der CO2-Preis einfach auf die von den GRÜNEN (und Freitagshüpfer, und Umweltbundesamt) geforderten 180 EUR/Tonne und dann weit darüber hinaus angehoben wird.

Es wird so kommen. Denn unsere Politiker benötigen viel, viel Geld, die EU benötigt viel viel Geld, die Klimawandel-Reparationszahlungen an sich „betroffen“ meldende Länder kosten viel viel Geld, die bedingungslose Sozialleistungsversorgung des laufend einreisenden, vorwiegend afrikanischen, aufgrund deren Reproduktionsrate nie endenden Jugendüberschusses kostet viel, viel Geld; weitere Aufzählungen fast beliebig möglich.
Wenn man es nicht schon hätte, spätestens jetzt müsste man die CO2-Bepreisung als Einnahmequelle erfinden.

Für die Bayerische GRÜNEN-Vorsitzende, Katharine Schulze ist es ein undenkbares Gräuel [8]. Es gibt aber auch Personen, die etwas anders als diese hochbesoldete Lachpuppe denken.

Bild 4 Catharina Schulze. Video-Screenshot [9]
Es wird nicht mehr allzu lange dauern, bis auch bei uns ein Wunsch umgeht: Oh du Land, welches einen Trump vorzuweisen hat: Wie bist du zu beneiden …
Bevor es allerdings so weit kommen könnte, wird das Wählen nicht genehmer Parteien vielleicht verboten und nicht nur die EU-Präsident*in vollkommen unabhängig von Wahlergebnissen in Hinterzimmern von Parteigrößen*innen ausgeknobelt …

Quellen

[1] Christians-Albrechts Universität zu Kiel, Jahresbericht 2002/2003 Forschungs- und Technologiezentrum Westküste, Büsum, Vanselow, Klaus; Voigt, Wolfgang; Bojens, Gero; Hein, Burger: „Fortschritt des FEEDWings-Projektes zur Windenergiespeicherung

[2] Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium: Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg

[3] Öko-Institut e.v., Studie März 2014: Prüfung der klimapolitischen Konsistenz und der Kosten von Methanisierungsstrategien

[4] Dr. Geisenheiner at al. 25.03.2020: Fachliche Stellungnahme Wasserstoffwirtschaft

[5] pv magazine 29. MAI 2020: BAYERISCHES STAATSMINISTERIUM FÜR WIRTSCHAFT, LANDESENTWICKLUNG UND ENERGIE Aiwanger: „Made in Bavaria wird zum Wasserstoff-Gütesiegel“

[6] NZZ 11.06.2020: Deutschland steckt Milliarden in eine Wasserstoffstrategie

[7] Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Professur für Hybridelektrische Fahrzeuge, Karlsruher Institut für Technologie: Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung (V1.5)

[8] EIKE 25, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 2

[9] EIKE 24, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 1

[10] IWR.de 10.06.2020: Bundesregierung verabschiedet Nationale Wasserstoffstrategie

[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[12] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle

[13] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern




Umgebungs­gleichung (Stefan-Boltzmann-Gesetz) / ungerecht­fertigte Kritik an Ulrich O. Weber / Strahlungs­gleichgewicht / Mittelwert­bildung

Die Verfechter des natürlichen Treibhauseffektes benötigen diesen, um zu erklären, warum die Abstrahlung der Erde um soviel geringer ist als die mittlere Temperatur an der Erdoberfläche an Strahlungsleistung nach dem S-B-Gesetz erzeugen würde. Um trotzdem ein Gleichgewicht mit der Einstrahlung zu erreichen, benötigt sie jedoch ein kompliziertes rückgekoppeltes und vor allem lückenhaftes Gegenstrahlungsmodell. Das alles hat seine Ursache in der Mittelung der einfallenden solaren Strahlung durch den Teiler 4 für die gesamte Kugel. Es ist aber unbestreitbare Tatsache, dass nachts die Sonne nirgendwo scheint. Physikalisch ausgedrückt bedeutet dies, dass jeweils nur eine Halbkugel die solare Strahlung aufnimmt, während zeitgleich die gesamte Kugel Strahlungsleistung wieder abgibt, um auf diese Weise zu einem Gleichgewicht zwischen Ein- und Ausstrahlung zu gelangen. Unser Autor A. Agerius (Pseudonym, der wirkliche Name ist der Redaktion bekannt) hat nun in seinem Modell auf andere Weise als U. Weber nachgewiesen, dass sich sämtliche Messwerte der ERBS-Satellitenreihe auf einfache Weise abbilden und vor allem reproduzieren lassen, wenn man die Halbkugel-Ein- und Ganzkugel-Abstrahlung konsequent und Schicht für Schicht anwendet. Eine Gegenstrahlung wird dafür nicht mehr benötigt. Um dem Prinzip von Occam´s Razor zu genügen, nachdem die einfachste Erklärung für Naturerscheinungen fast immer die Richtige ist, stellen wir diese, für viele überraschende Herleitung, hier zur Diskussion.

A. Agerius26.07.2020

In 4 Themenblöcken werden die Stichworte im Titel betrachtet. Sie sind inhaltlich verbunden:
A. Umgebungsgleichung (Stefan-Boltzmann-Gesetz)

„Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ (von Ulrich O. Weber,veröffentlicht am 11. September 2019 durch EIKE, Europäisches Institut für Klima & Energie)

Der Ansatz von Herrn Weber ist in Beiträgen auf EIKE und in seinen Büchern ausführlich dargestellt. Diese Modellierung berücksichtigt keine atmosphärischen, horizontalen und vertikalen Umschichtungen. Ihr perspektivischer Bezugspunkt ist die Kugeloberfläche. Zwei unabhängige Vergleichsrechnungen durch einen Bekannten, Diplomingenieur der Elektrotechnik, und mir wurden mit diesem Modell über Mantelringe mit 1 Grad Schritten bei solarer Einstrahlung von 1367 W/m², auch als Total Solar Irradiance TSI bezeichnet, und mit einer Albedo a = 0,30 berechnet. Wir erhielten als Global Mean Temperature für die Erde T = 15,3°Celsius. Dieser Ansatz ist ein in sich komplett unabhängiger Beweis, dass es für die Herleitung dieser Mitteltemperatur keines Treibhauseffektes von 33 K bedarf.

Herr Weber schrieb in diesem Artikel: „In der üblicherweise dargestellten Form lautet das Stefan-Boltzmann-Gesetz: P/A = σ T4. Diese Form stellt den astronomischen Spezialfall für eine Umgebungstemperatur T0 von 0 Kelvin dar.“ Und „Die allgemeine Form des Stefan Boltzmann-Gesetzes wird auch als Umgebungsgleichung bezeichnet: P/A = σ (T4 – T04).“ Einer der Kommentatoren auf der EIKE-Blogseite beanstandete, dass die Formulierung als Umgebungsgleichung so nicht in der originalen Veröffentlichung von Boltzmann steht. Auch im nächsten Artikel, „Safety First“, spricht Herr Weber die Umgebungsgleichung an.

„Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz“ (von Ulrich O. Weber, veröffentlicht am 29. Juli 2019 durch EIKE)

Herr Weber entgegnet: „Offenbar konnten die geschätzten Kommentatoren mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in der Form ´P/A =  * (T4-T04)´, die dieser Betrachtung zugrunde liegt, aber recht wenig anfangen,…“ Dem Leser des EIKE-Blogs, stellt sich die Frage: Ist die Kritik der Kommentatoren gerechtfertigt?

B. Ungerechtfertigte Kritik an Ulrich O. Weber

Hierzu verweise ich auf „Physik für Ingenieure“, ein seit 50 Jahren gültiges Standardwerk abertausender deutscher Maschinenbauer und Bauingenieure, Zitatanfang: „So ist die effektiv abgestrahlte Leistung eines „schwarzen“ Körpers ΔPs = σ A (T14 – T24) für einen „grauen“ Körper gilt ΔPs = ε σ A (T14 – T24)

Beispiel 7. Ein schwarzer Körper hat die Oberfläche A = 1 cm² und die Temperatur T1 = 373 K. Bei der Umgebungstemperatur ϑ = 20 °C strahlt er 6,76 10-2 W ab. Ist er jedoch nicht „schwarz“, sondern reflektiert er 20%, so kann er nur 80% absorbieren. Da sich das Absorptionsvermögen wie das Emissionsvermögen verhält, emittiert er – wenn er strahlt – auch nur 80% der Leistung, das ist 5,41 10-2 W.“ 1 Zitatende, [Hervorhebungen verändert]

ΔPs = 5,41 10-2 W = σ A (T14 – T24) = 5,6704 10-8 Wm -2 K-4 1.0 10-4 m² 0.80 (3734 K4 – 293,154 K4)

Hieraus folgt: Das Emissionsvermögen kann nicht größer als das Absorptionsvermögen sein. Dies gilt explizit für Strahlung, sonst würde der 1. Hauptsatz der Thermodynamik verletzt werden. Die obige Darstellung gehorcht auch dem 2. HS, Wärme fließt immer (ohne äußere Einwirkung) von warm nach kalt. Diese Hauptsätze der Physik gelten selbstverständlich auch für ihre Unterdisziplinen wie Klimawissenschaft, Atmosphärenphysik, Meteorologie und Ozeanografie.

Um die Bedeutung „Umgebungsgleichung“ für den EIKE-Blogleser besser zu veranschaulichen, folgt ein Beispiel aus dem Alltag:

Ein ca. 2.5 m² großer Flur eines denkmalgeschützten Altbaus benötigt einen neuen Heizkörper. Für den Flur seien +18°C Raumtemperatur ausreichend, bei -10°C Außentemperatur. Dies führt zu einem dem Alter des Gebäudes angepassten Dimensionswert von 100 W/m² Raumfläche. Die notwendige Heizleistung für den Flur erfordert somit zu 250 W. Die Vorlauftemperatur der Gaszentralheizung beträgt am Einlassventil 70°C, die Rücklauftemperatur 55°C. Die mittlere Oberflächentemperatur der Heizfläche weist damit 62.5°C auf. Der hierzu gehörige Anpassungsfaktor von mittlerer Heizflächentemperatur und Raumlufttemperatur beträgt in dieser Kombination f >= 1,37. Die Mindestauslegung wird somit zu 1,37 x 250 W = 343 W bestimmt. Gewählt wird ein Plattenheizkörper Typ 22 der Länge 1 m, Bauhöhe 400 mm mit einer Norm- Wärmeleistung von 970 W/m. 388 W = 970 W/m x 0,4 m. Mit T1 = 62,5 °C = 335,65 K und T2 = 18°C = 291,15 folgt:

Ein 1. Thermometer misst auf der Mitte des Plattenheizkörpers T = 62,5 °C, das 2. Thermometer misst im Raum T = 18°C.

ΔPs / A = 312 W/m² = σ (T14 – T24) = 5.6704 10-8 Wm -2 K-4 (335.654 K4 – 291.154 K4)

Ludwig Eduard Boltzmann (1844 – 1906) hatte bei seiner wissenschaftlichen Veröffentlichung noch nicht die praktischen Anwendungen ΔPs = σ A (T14 – T24), siehe Physik für Ingenieure2 im Blick. Die Kritik an Herrn Ulrich O. Weber ist somit nicht gerechtfertigt.

Übertragen der Umgebungsgleichung auf die Erde:

a Ein erstes Thermometer sei in 2m Höhe ein zweites Thermometer befände sich in ca. 70km Höhe.

T1 = 15,2 °C = 288,35 K und T2 = -18,89 °C= 254,26 K

ΔPs / A = σ (T14 – T24) = 5,6704 10-8 Wm -2 K-4 (288.354 K4 – 254,264 K4) = 155,02 W/m²

b Ein erstes Thermometer sei in 70km Höhe ein zweites befände sich in ca. 200km Höhe

T1 = -18,89 °C= 254,26 K und T2 = -273,15 °C= 0 K

ΔPs / A = σ (T14 – T24) = 5.6704 10-8 Wm -2 K-4 (254.264 K4 – 0 K4) = 236.99 W/m² ~ -18.88 °C

c Ein erstes Thermometer sei in 2m Höhe ein zweites befände sich nun in ca. 200km Höhe

T1 = 15,2 °C = 288,35 K und T2 = -273,15 °C= 0 K

ΔPs / A = σ (T14 – T24) oder 5,6704 10-8 Wm -2 K-4 (288,354 K4 – 04 K4) = 392,01 W/m² ~ 15,20 °C

Oder 155,02 W/m² + 236,99 W/m² = 392,01 W/m²

Die Darstellung als Umgebungstemperatur – ich verwende jetzt bewusst die Formulierung von Herrn Ulrich O. Weber – zeigt die Wärmeleistung pro m² der Erde, hier 392,00 W/m² ~ 15,20°C fließt mit (288,354 K4 – 04 K4) von warm nach kalt und nicht umgekehrt. Lässt dies noch hypothetischen Raum für eine Gegenstrahlung in der Unterwissenschaft Atmosphärenphysik zu? Hotspots3 in der Atmosphäre als eigenständige Wärmequellen werden nicht gemessen, auch nicht mit Wetterballonen.

C. Strahlungsgleichgewicht

Die Hypothese der Gegenstrahlung (Back Radiation mit 324 W/m²) in der Strahlungsbilanz als Strahlungsgleichgewicht der Erde modellierten Kiehl und Trenberth 1997 in Earth´s Annual Global Mean Energy Budget. Die unten dargestellte FIG.7. wurde dreimal in IPCC Berichten, zuletzt 2007, an prominenter Stelle dargestellt. Ihr Gegenstrahlungsansatz ist die theoretische Basis der IPCC Klimamodelle. Im Modell mit Gegenstrahlung absorbieren IR-aktive Gase wie z. B. CO2. Diese würden im Anschluss bei ihrer Re-Emission eine Gegenstrahlung von 324 W/m² verursachen.

Bildnachweis: J. T. Kiehl and Kevin E. Trenberth, 1997, Earth´s Annual Global Mean Energy Budget, FIG.7. S.206 IPCC, Climate Change 2007, Cambridge University Press 2007 abgebildet auch in den IPCC Reporten 2007, 2001 und 1995

Bildnachweis:erstellt von A. Agerius, 2020

In der Darstellung oben sind römischen Zahlen eingetragen.Sie markieren horizontale Schnittebenen durch die Atmos-phäre. Ihre Strahlungsflüsse entsprechen dem Bild 1.

 

Kiehl und Trenberth verwenden Pfeile zur Darstellung von Strahlungsflüssen (W/m²). Diese Art der Darstellung erinnert an Kraftvektoren der technischen Mechanik.4 Wenn man diesen Gedanken zu Grunde legt, drängt es sich auf, das Schnittkraftprinzip anzuwenden. Ein unter Spannung – Kraft geteilt durch Fläche – stehendes Bauteil wird hierbei virtuell, wie mit einem Messer, durchtrennt. Alle an der Schnittfläche auftretenden Größen werden sichtbar und müssen Gleichgewichtsbedingungen gehorchen. Bei einem Bauteil wären dies Schub- Druck-, Zugkräfte, bzw. Biegespannungen, Momente, Torsion etc. In der diesem Textblock folgenden Anordnung von Zahlen in 8 Zahlenzeilen ist dies in Analogie zur Mechanik für den Strahlungsfluss aufbereitet. Auch hier muss sich ebenfalls ein horizontales und vertikales Gleichgewicht als Strahlungsgleichgewicht ausbilden.

Zur besseren Veranschaulichung für FIG.7. werden 8 Ebenen (I bis VIII) eingeführt und die horizontale Betrachtung mit „= 0“ am Zeilenende berücksichtigt. Mit dem Minus Zeichen (-) zeigt der Strahlungspfeil (in der Analogie dem Kraftvektor vergleichbar) in Richtung Erde, mit Plus Zeichen (+) in Richtung Orbit, vertikales Gleichgewicht. Die Zahlenwerte in W/m² sind aus FIG.7. KT97 entnommen: Zwischen Ebene II und III wurde virtuell nach dem Schnittkraftprinzip (gelb markiert) durchgeschnitten und die Strahlungsflüsse anschließend angetragen. Hierbei wird sichtbar, dass bei Kiehl und Trenberth in FIG.7. +67 in der zeichnerischen Darstellung fehlen. Ohne +67 gibt es einen Sprung im Strahlungsfluss.

Blau, Vergleich mit Satellitenmesswerten, zuzüglich 2 Albedos a = 0,3129 bzw. 0.088

Erläuterung: Zeile I bis III ohne „gleichzeitig“ ↑+67 bildet sich vertikal ein Sprung im Strahlungsfluss aus. Die Energiebilanz von Kiehl und Trenberth kann somit das Gleichgewichtskriterium „∑ H = 0“ in Zeile III nicht erfüllen. Dies verlangt aber eine Bilanz. Bsp. Geschäftsbilanz: Einer Ausbuchung -67.000 Euro in Unterkonto A „Verkauf“ ist „gleichzeitig“ eine Einbuchung von +67.000 Euro in Unterkonto B „Umsatz“ zugeordnet.

Zeile IV bis VIII wie zuvor.

Kiehl und Trenberth berufen sich auf Satellitenmessungen: „The ERBE [Earth Radiation Budget Experiment] (see Ramanathan et al. 1989) provided nearly 5 yr of continuous data from the mid.1980s.

The global annual mean of these data (Kiehl et al. 1994) indicate that the outgoing longwave radiation is 235 Wm-2 ,…”5 [Ergänzungen vom Autor hinzugefügt] Hinter „see Ramanathan et al. 19896” steht u.a. Bruce Barkstorm. Er war der Chefingenieur beim Bau der ERBS Satelliten (Teil des ERBE Programms der NASA). Um ein Modell zu entwickeln, das seine eigenen Satelliten Messwerte erklärte, zeichnete Barkstorm die Strahlungsflüsse in seiner eigenen Darstellung als Pfeile. Er formulierte damit als Erster die Hypothese der Gegenstrahlung in Verbindung mit Satellitendaten. Kiehl und Trenberth übernahmen sein Prinzip -Strahlungen wie Kraftvektoren darzustellen – und verfeinerten nur sein Modell.

In FIG.7. KT97 weisen die obigen 5 Werte einen direkten Bezug zu den ERBS Messwerten auf und haben folgende Bedeutung:

Reflected Solar Radiation, ins Orbit zurück geworfene Strahlung, kurzwellige Strahlung 107 W/m²

Outgoing Longwave Radiation, von der Atmosphäre abgestrahlte langwellige Strahlung 235 W/m²

Longwave cloud forcing, langwellige Strahlung beim Vorhandensein von Bewölkung 30 W/m²

Albedo, Anteil der ins Orbit reflektierten Strahlung, 107 W/m² / (107 W/m² + 235 W/m²) 0.3129

Clear Sky Albedo, der Bodenanteil der Albedo 30 W/m² / 342 W/m² 0.0877

Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich:

KT97 schafft es 5 von 11 Messreihen im Modell KT97 abzubilden. Bezüglich longwave radiation tritt eine Differenz von rund 8 W/m² (242.9 – 235) auf. Das cloud forcing von 30.8 W/m² ist zwar mit 31 W/m² gut modelliert, aber in den 235 W/m² nach FIG.7. enthalten. „The longwave cloud forcing, clear minus cloudy sky flux, is 30 W/m-2, which agrees closley with the annual mean ERBE value, as it should because both clear and cloudy sky top-of atmosphere fluxes are tuned to the ERBE data.”7 Die von Satelliten gemessene CLEAR-SKY LONGWAVE RADIATION von 276.3 W/m² kann in FIG.7. nicht dargestellt werden. Im Modell fehlen so 41.3 W/m² (276.3-235). Lange Zeit waren die oben aufgelisteten Messwerte einer breiten Öffentlichkeit nicht zugänglich. Bei 15°C als globale Durchschnitts Temperatur macht eine Strahlungsdifferenz von 5 W/m² zwischen Messwert und Modellwert fast 1C° aus (Pariser Klimaakkord?). Beim Betrachten von roter und blauer Spalte drängen sich damit zwei Fragen auf:

  • Kann man ein Modell entwickeln, das alle Messwerte abbildet?
  • Kann ein solches Modell eine möglichst geringe Abweichung zwischen Messwert und Modellwert aufweisen und welche Aussagen lässt ein solches Modell dann zu?

An dieser Stelle möchte ich überleiten zu D. Mittelwertbildung, denn man kann ein anderes Modell entwickeln und dazu spielt der Faktor 2 eine entscheidende Rolle.

D. Mittelwertbildung

„Nachdem sich der Rauch verzogen hat: Stefan-Boltzmann auf den Punkt gebracht“ (von Ulrich O. Weber, veröffentlicht am 16. Februar 2017 durch EIKE)

Herr Weber formuliert hierin: „Die alternative Herleitung berechnet sich mit dem Strahlungsgleichgewicht des S-B Gesetzes für eine Halbkugelbetrachtung in einem Zweischichtfall für Atmosphäre und Erdoberfläche: (Solarkonstante/2) => netto 390 W/m² => +14,8°Celsius.Mit der Solarkonstante von 1368 W/m² /2 = 684 W/m² schreibt Herr Weber in einer anderen Schrift:

684 [W/m²] – 214 [W/m²] – 80 [W/m²] = 390 [W/m²] 8

Hierin sind 80 W/m² 2 mal 40 W/m² des atmosphärischen Fensters von KT97 und 214 W/m² 2 mal 107 W/m² reflektierter Strahlungsanteil durch eine Albedo von 0.3129 verglichen mit KT97.

Herr Limburg, der Vizepräsident von EIKE, 2019 auf der 13. EIKE im Vortrag „Was Sie schon immer über den Treibhauseffekt wissen wollten…“ Zum Modell mit 1368 W/m²/ 2 Einstrahlung: „Ohne jetzt den Breitengrad […] mit zu berücksichtigen, kann man ganz grob annehmen, dass auf die Halbkugel rund 684 W/m², also die Hälfte, pro m² fällt. Das würde die ganz erste Näherung sein, für jeden, der sich mit der Frage beschäftigt, stellt sich die Frage: wo kommt denn die Energie her? Die Treibhausforscher, die dem IPCC zuarbeiten, sehen das aber ganz anders. Die erfinden plötzlich eine Rundumsonne. Plötzlich ist die Sonne von beiden Seiten da und bestrahlt beide Seiten gleichmäßig. Zwar nicht mit der vollen Leistung, sie wird gedimmt. Die 684 W/m² werden nochmal halbiert. Das geht dann auf die Kugeloberfläche. Wir haben statt 684 W/m² plötzlich von beiden Seiten, jeweils auf die Halbkugel bezogen, gleich große 342 W/m². Das ist zumindest eine Überlegung, die man an anstellen kann.“9

Bildnachweis: EIKE

Die Satellitenmesswerte des ERBS Satelliten könnte man mit einem Halbkugelmodell in Beziehung setzen. Der Satellit ERBS hatte 15-Umläufe um die Erde am Tag. Die ERBS-Messwerte der Scanner, die auf die Erde gerichtet sind, sind aus einer Mittelwertbildung entstanden, einer Mittelung aus Tag- und Nachtmessung.

Die Erdkugel als beleuchtete Halbkugel grafisch im Augenblick der Einstrahlung 0 bis 180 Grad und 180 bis 360 Grad so dargestellt:

        X

X               X

         X

Der Standort des Satelliten ist von der solaren Einstrahlung auf die Erde unabhängig.

Fall 1: 0 bis 180 Grad:

15 Mal in 24 h für ERBS ist die halbe Erdkugel beleuchtet

+

Fall 2: 180 bis 360 Grad:

15 Mal in 24 h für ERBE ist eine halbe Erdkugel unbeleuchtet, aber in dieser Zeit strahlt die Sonne auf die beleuchtete Seite. Um auf die Satellitenwerte verweisen zu können, muss der Standpunkt der Messung berücksichtigt werden, die Perspektive des Satelliten während des Messvorganges. Steht der Satellit im Erdschatten, ist die TSI = 0 W/m². ISRModel = Incoming Solar Radiation auf Modellebene:

In der Messung:

Daraus folgt:

In der Perspektive des Satelliten: TSI im Mittel = (1368 W/m² + 0) / 2 = 684 W/m²

Übertragen auf ein Modell, das auf Mittelwerten beruht:

Der Faktor 2 lässt sich deshalb auch aus der Mittelwertbildung ableiten.

Werden Satellitenmesswerte als Strahlungsbeträge wie folgt umgruppiert, weisen sie eine horizontale und vertikale Gleichgewichtsbeziehung bzw. einzelne Symmetrieachsen auf. Dies gilt bis in den einzelnen ermittelten Datensatz und ist dem 1. HS der Thermodynamik, der Energieerhaltung, geschuldet.

(Mit clear sky albedo = 0.1345 = 92 W/m² /684 W/m² und a = 0.269 = 184 W/m² / 684 W/m²)

Modell 5: rot Abgleich mit Satellitenmesswerten, albedo a = 0.2690, bzw. 0.1345

Bildnachweis, A. Agerius FIG8 b Modell 5 clear sky11

 

 

Wenn die Strahlungsbilanz als Modell aus der Perspektive des Satelliten gerechnet wird, dann erscheinen alle vom ERBS Satelliten gemessenen 11 Datenreihen als Mittelwerte der 5- jährigen Messung gleichzeitig.

Grafische Darstellung der Strahlungsbilanz mit Satellitenmesswerten des Satelliten ERBS im 5- jährigen Mittel nach CEDA als Gegenmodell zu KT97, getrennt nach cloudy sky FIG8a und clear sky FIG8b:

Bezüglich shortwave cloud forcing gelingt die Trennung nicht ganz. Der Abweichung beträgt 11.5% (11.5% = 48/416 x100). Dies wird in Kauf genommen. Die gesamte Modellabweichung macht nur weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung aus (4.8 = 2.0 W/m² /414.5 x 1000) oder ist damit < = 2 Watt/m² zum Messwert. Ich nenne es Modell 5. In KT97 werden die Messwerte, auf die sich Kiehl und Trenberth berufen, unzureichend abgebildet. Darüber hinaus gibt es zusätzliche Kritikpunkte an KT97, die in diesem kleinen Artikel nicht angesprochen werden können. Die exakte Ableitung von Modell 5, Werte für Konvektion, Wärmeleitung, atmosphärisches Fenster, weitere 14 Kritikpunkte an KT97, ein Vergleich mit Messwerten der Satelliten TERRA und AQUA des NASA CERES Programms siehe Quellenangabe12.

Zusammenfassung:

Der Strahlungs- und der Temperaturverlauf von der Erdoberfläche in Richtung Orbit entsprechen der Umgebungsgleichung siehe Abschnitt B. Die Formulierung einer Umgebungsgleichung P/A = σ (T4 – T04) aus dem Boltzmann Gesetz von Herrn Weber ist daher richtig. Die Umgebungsgleichung bildet ab, dass Wärme von warm nach kalt fließt, gemäß den Regeln der Thermodynamik. Das Modell von Kiehl und Trenberth, Abschnitt C, zeigt die Erde in der treffenden Beschreibung von Herrn Limburg als „eine Rundum-Sonne [allseitige Einstrahlung] bei gedimmter Einstrahlleistung“. KT97 beruft sich einerseits auf Satellitenmesswerte, kann aber andererseits nur sehr wenige davon abbilden und diese zeigen dann eine große Abweichung zwischen Modell und Messwertmittel.

Die durchschnittliche Oberflächentemperatur der Erde von ca. 15°C kann in KT97 nur mit der Modellhypothese von hoher Gegenstrahlung (324 W/m²) erklärt werden. Aber auch langwellige Strahlungsaussendung gemäß Stefan-Boltzmann benötigt eine Ursprungs-Temperatur als Ursache. In KT97 würde aber Wärme von kalt nach warm fließen. Weber`s Ansatz, Abschnitt A, betrachtet die Einstrahlung auf eine Halbkugel, aber die Abstrahlung von der Gesamtkugel aus der Perspektive der Kugeloberfläche. Dies führt ebenfalls zu einer Durchschnittstemperatur von 15°C, aber die Einführung der Idee einer Gegenstrahlung ist hierzu nicht erforderlich.

Der Ansatz Agerius (Modell 5), Abschnitt D, wurde aus der Perspektive des Satelliten entwickelt. Die Sonneneinstrahlung auf der Halbkugel reicht aus, um die Erde mit einer Durchschnittstemperatur von ca.15°C zu erwärmen. Die Abstrahlung erfolgt auch hier über die Oberfläche der Gesamtkugel. Alle Satellitenmesswerte lassen sich im Modell Agerius dann ebenfalls darstellen und dies mit einer Abweichung von <= 2 W/m² zwischen Modell und Messwertmittel. Beide Strahlungsverläufe clear und cloudy sky, Abschnitt D, benötigen keine Gegenstrahlung von 324 W/m² und schließen sie damit aus. Mit 714 W/m² (390 + 324) würde die Erde zu heiß werden. Mit den voneinander unabhängigen Modellen, Weber und Agerius, aus unterschiedlichen Perspektiven bzw. Bezugspunkten entwickelt, ist eine Gegenstrahlungshypothese und damit auch ein natürlicher Treibhauseffekt von 33 K für die Erklärung und Herleitung der realen Temperaturwerte nicht erforderlich.

1 Dobrinski, Krakau, Vogel., Physik für Ingenieure, 7. überarbeitete Auflage, Stuttgart, Teubner Verlag, ISBN 3-519-16501-5, Kap. 2.6.3 Strahlung S.195

2 Dobrinski, Krakau, Vogel., Physik für Ingenieure, 7. überarbeitete Auflage, Stuttgart, Teubner Verlag, ISBN 3-519-16501-5, Kap. 2.6.3 Strahlung S.195.

3 Physiker Dr. Rainer Link „Dieser Hot Spot wird nicht gemessen!“ in: Warum die Klimamodelle des IPCC fundamental falsch sind! Der Aufsatz ist im Web als pdf abrufbar.

4 A. Agerius, 2019, Kritische Analyse zur globalen Klimatheorie, zu B. Barkstorm und Culmann Verfahren, S.78.

5 KT97, S.198.

6 Barkstorm, Ramanathan and Harrison (1989), CLIMATE AND THE EARTH’S RADIATION BUDGET, in PHYSICS TODAY, American Institute of Physics.

7 KT97, S. 201, linke Spalte, 2 Satz.

8 Weber, 2017, Klima-Revolution, Ein atmosphärischer Treibhauseffekt ist nicht erkennbar, BoD, Norderstedt, ISBN:978-3-74483-562-6.

9 Herr Michael Limburg, Vizepräsident von EIKE, im Vortrag auf der 13. Internationalen EIKE- Klima und Energiekonferenz in München am 23. November 2019, https://youtu.be/-x5sgNfKvto

10 A. Agerius, 2019, Kritischen Analyse zur globalen Klimatheorie, ISBN 978-3-7497-1977-8, S.52.

11 A. Agerius, 2019, Kritischen Analyse zur globalen Klimatheorie, S.53.

12 A.Agerius, 2019, Kritische Analyse zur globalen Klimatheorie, Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell, Tredition, (Deutsch) ISBN 978-3-7497-1977-8.

A.Agerius,2019, Critical analysis of the global climate theory,Disproof of basic study of IPCC CO2 greenhouse effect, KT97, with measure values of ERBS satellite on a new model, Tredition (English) ISBN 978-3-7497-2137-5.