Elektroautos: Wird irgendein Auto-Unter­nehmen damit jemals Geld verdienen?

Start-Up-Automobilunternehmen sind mit vielen Merkwürdigkeiten konfrontiert. Während der letzten zehn Jahre gab Tesla kumulierte Verluste von über 3 Milliarden Dollar bekannt. Im zweiten Quartal begann Tesla, die Produktion seines neuen Modells 3 Sedan voranzutreiben und über 50.000 Autos zu bauen. Tesla verspricht außerdem, in naher Zukunft profitabel sein zu können. Aber die Firma sieht sich mit rasch zunehmender Konkurrenz beim Bau von Elektrofahrzeugen konfrontiert.

Die Autohersteller der Welt haben sich nicht nur Elektroautos zugewandt, sondern scheinen jetzt auch zu wetteifern, die meisten Elektromodelle auf den Markt zu werfen. Über 400 vollständig elektrische oder Hybrid-Fahrzeuge sind angekündigt. BMW plant bis zum Jahr 2025 die Einführung von 12 voll elektrischen und 13 Hybrid-Modellen. Ford verkündete Investitionen von 11 Milliarden Dollar, 16 voll elektrische und 24 Hybrid-Modelle bis 2022 zu bauen. Toyota, Volkswagen, General Motors und andere scheinen allesamt auf diesen Zug aufspringen zu wollen.

Hybrid-Elektrofahrzeuge wie der Toyota Prius enthalten einen herkömmlichen Verbrennungsmotor zusammen mit einem Elektromotor, um die Fahrstrecken zu verlängern. Hybrids können nicht an die Steckdose angeschlossen und aufgeladen werden. Nach zehn Jahren der Produktion war Toyota schließlich in der Lage, mit dem Hybrid-Prius Profite zu erwirtschaften. Der Verkauf von Hybrid-Elektrofahrzeugen, die längere Strecken zurücklegen können als voll elektrisch betriebene Fahrzeuge, stieg anteilmäßig beim globalen Verkauf von Fahrzeugen im Jahre 2017 um drei Prozent.

Steckdosen-Hybrid-Fahrzeuge wie der Chevrolet Volt können elektrisch aufgeladen und dann vollständig mit der Ladung der Batterien fahren, aber sie enthalten auch einen Benzinmotor für längere Strecken. Batteriebetriebene E-Fahrzeuge wie das Tesla-Modell S und der Nissan Leaf werden nur mit Batteriestrom betrieben. Weder Steckdosen-Hybrid-Fahrzeuge noch E-Fahrzeuge sind bereits profitabel.

US-Analysten schätzen, dass General Motors mit jedem seiner neuen BOLT-Batterie-E-Autos 7000 Dollar Verlust macht. Das Bolt-Batteriepaket kostet etwa 10.000 bis 12.000 Dollar oder bis zu einem Drittel des Bolt-Preises. Daimler, Peugeot, Honda und andere Autohersteller warnen vor drohenden Verlusten bzgl. E-Fahrzeugen.

Wo ist die Forderung, alle diese neuen E-Automodelle zu unterstützen? Unternehmer und neue Unternehmen haben traditionell Erfolg, indem sie das Marktbedürfnis erfüllen oder mittels Entwicklung einer neuen Technologie, um einen neuen Markt zu schaffen. Ein Beispiel für Ersteres war die Digital-Kamera, welches das Bedürfnis befriedigte mit einer Kamera endlos viele Photos zu machen und diese fast sofort danach anschauen zu können. Die inzwischen weit verbreitete Touch-Screen-Technologie ist ein Beispiel für einen Technologie-Schub. Der E-Auto-Wahn könnte weder Ersteres noch Letzteres sein, sondern wird ausschließlich getrieben durch regierungsamtliche Anreize und Verordnungen.

Während des vorigen Jahrzehnts haben die Nationen der Welt große finanzielle Anreize geschaffen, um die Übernahme von E-Fahrzeugen voranzutreiben. In Australien, China, Indien, Japan, den USA und über 20 Nationen in Europa bestehen diese Anreize aus Steuervorteilen, Abschreibungen und Subventionen für Verbraucher und Unternehmen. Aber die Zunahme von E-Autos war enttäuschend. Batterie-E-Autos machten nur 0,8% der 86 Millionen Fahrzeuge aus, die global im Jahre 2017 verkauft worden sind.

Und selbst diese geringe Verbraucher-Nachfrage nach E-Autos ist dünn. Sowie Steuervorteile beschnitten werden, stürzt die Nachfrage ab. Eine Reduktion der Steuernachlässe bei der Registrierung von E-Autos in Hong Kong und Dänemark sorgte jeweils für einen Einbruch bei der Nachfrage um über 80%.

Mit weitgehend ineffektiven Subventionen planen die Regierungen in Europa jetzt, im Namen des Umweltschutzes Verbrennungsmotoren zu verbieten. Das Verbot des Verkaufs von Benzin- und Diesel-Fahrzeugen ab den Jahren 2030 oder 2040 ist geplant in Frankreich, Deutschland, den Niederlanden und Norwegen. Auch in Kalifornien und anderen Nationen denkt man darüber nach.

Werden Verbraucher gezwungen, zu E-Autos zu wechseln? E-Autos weisen die Vorteile schneller Beschleunigung, niedriger Wartungskosten und geringerer Treibstoffpreise auf. Aber der Vorteil niedrigerer Treibstoffpreise wird kleiner, wenn Regierungen Fahrzeug- und Treibstoff-Steuern einführen, wenn der Anteil an E-Fahrzeugen zunimmt. Die Defizite von E-Autos sind gewaltig, darunter hohe Kaufpreise, kurze Strecken, geringe Belastungskapazität, fehlende Ladestationen, lange Ladezeiten und teure Batterie-Pakete, die während der Lebensdauer des Fahrzeugs immer wieder ausgetauscht werden müssen.

Die Autobauer sind in einer schwierigen Lage. Die Nachfrage nach E-Autos ist gering, aber die Regierungen beabsichtigen, Autofirmen zu zwingen, ihre Bänder auch für E-Autos zu öffnen. Hunderte neuer Automodelle, um gerade mal fünf Prozent des Marktes abzudecken ist ein Rezept für ein finanzielles Debakel.

Man erwarte große Verluste der Autounternehmen bzgl. E-Autos und einen wachsenden Gebrauchtwagen-Markt für traditionelle Benzin- und Dieselfahrzeuge.

Link: https://wattsupwiththat.com/2018/08/23/electric-cars-will-any-auto-company-make-money/

Übersetzt von Chris Frey EIKE




Des Windkaisers neue Kleider – Teil 2 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

*** Teil 2

Eine faire Wetterlösung – Die Wahrheit hinter den Subventionen

Um ihre Forderungen nach staatlichen Subventionen für Wind- und Solarenergie zu begründen, haben deren Befürworter den Öl- und Gasproduzenten viele historische Subventionen angedichtet; Diese Behauptungen stammen aus irreführenden Statistiken, die von der Privatfirma International Energy Agency (IEA) erstellt wurden. Zu den größten statistischen Verstößen der IEA wurden staatlich geregelte niedrige Gaspreise für Bürger in den Petrostaten als Subventionen für Ölgesellschaften hergenommen. Dazu zählte die IEA zum Beispiel die von der Regierung festgelegte Preisobergrenze für Venezuelas verstaatlichtes Öl auch als Subvention für Ölfirmen. Diese Marktinterferenz bedeutete, dass Benzin in Venezuela für nur $ 0,05 pro Gallone verkauft wurde;  während es etwa 3 $ pro Gallone in den USA kostete [bei etwa 1,30 Euro/L gäbe das 5 Euro/Gallone]

Roger Bezdek, Präsident von Management Information Services, berichtete in einer Fünfjahresstudie über den Zeitraum 2011-16, dass Solar-, Wind- und Biomasse mehr als das Dreifache der Bundesanreize, Subventionen und Sonderzahlungen erhielten, die für Öl, Gas, Kohle, und nukleare ausgegeben wurden!

(Dieser Bericht war Teil einer umfassenden Studie, die die Energiesubventionen der USA von 1950 bis 2016 abdeckte und vom Nuclear Energy Institute gesponsert wurde.) [Im Netz u.a. zu finden: 2018 World-NuclearBright Power 2014; Chemical Eng. 2011]

Nach Angaben der US-amerikanischen Energy Information Administration hat sich die heimische Energieerzeugung im Jahr 2016 wie folgt entwickelt:

Erdgas, 33 Prozent der US-Energieproduktion, Erdöl (Rohöl und Erdgas) 28 Prozent, Kohle 17 Prozent, erneuerbare Energien 12 Prozent (in denen die EIA Wasserkraft einschließt) und Kernkraft 10 Prozent.

Wie setzt sich der kleine Teil der „erneuerbaren“ Energien zusammen? Die Biomasse stellt dabei mit 4,6 Prozent der abgenommenen Energieanteile aus Biokraftstoffen, Holz und Biomasseabfällen den größten Anteil. Biokraftstoffe machen 2,2 Prozent aus, gefördert durch die Bundesregierung in Form von Ethanol, dass mit Benzin gemischt wird. Holz bringt mit 1,9 Prozent den zweitgrößten Anteil zum Energieverbrauch. Dies ist vor allem auf die Verbrennung von Abfallholz in Holz- und Papierfabriken und die Verwendung von Holz in der Hausheizung zurückzuführen. Biomasseabfälle machen 0,5 Prozent dieser Energieart aus. Biogas aus Deponien, Mist, Abwasser ist in dieser Summe enthalten.

Die Wasserkraft macht mit 2,4 Prozent den zweitgrößten Anteil erneuerbarer Energien aus. Windkraft ist die drittgrößte Komponente und bringt 2,1 Prozent der Energielieferungen. Die Solarenergie liegt mit 0,6 Prozent des Verbrauchs etwa auf dem vierten Platz. Geothermie macht nur 0,2 Prozent des Verbrauchs aus.

Aus diesen Daten wird schnell klar, dass trotz des großen Druckes der Lobbygruppen, Wind und Sonne weniger als drei Prozent des Energieverbrauchs in den USA decken werden. Die wichtigsten Energiequellen, die in den USA genutzt werden, sind Erdöl mit 37 Prozent, Erdgas mit 29 Prozent, Kohle mit 15 Prozent und Kernkraft mit 9 Prozent.

 

Warum schlagen wetterabhängige Optionen fehl? Das Grid

Es lohnt sich zu untersuchen, warum die Nutzung dieser alternativen Energiequellen so frustriert. Der grundlegende und wichtigste Punkt ist, dass die Energie-Verteilsysteme ( grid …~netze) hohe Zuverlässigkeit  und Planbarkeit fordern, die wetterabhängige [und nicht planbare]  Energiealternativen nicht bieten können.

Zunächst die Grundlagen zu den US-amerikanischen Übertragungs-Netzbetreibern, einschließlich ihrer Ursprünge, Speicherprobleme und sogar einige Missverständnisse.

Gegründet im Jahr 2006, überwacht die North American Electric Reliability Corporation den Betrieb des Stromnetzes für die zusammenhängenden Vereinigten Staaten und die südliche Hälfte Kanadas. Die unteren 48 Staaten der USA sind in drei Hauptverbindungen, die Eastern Interconnection, östlich der Rocky Mountains, der Western Interconnection und der Electric Reliability Council von Texas (ERCOT) [erreichbar mit VPN „Herkunft-Verschlüsselung“, Europa wird blockiert] gruppiert.

[de.Wiki zu Texas: … Das generelle Problem der Windenergie in Texas ist, dass die Erzeugung im Sommer am geringsten ist, während gleichzeitig der Verbrauch am höchsten ist. So rechnete ERCOT im Sommer 2014 bei einer installierte Leistung von 11.000 MW nur mit einer gesicherten Leistung von 963 MW. Aufzeichnungen zeigen auch, dass der meiste Windstrom nachts erzeugt wird, während die Lastspitzen am Tag auftreten.[9]]

Sechsundsechzig Behörden in den USA balancieren die Einspeisung  aufgrund der Nachfrage und überwachen die Belastung für ihre Regionen. Die Eastern Interconnection besteht aus 36 Bilanzierungsbehörden: 31 in den Vereinigten Staaten und 5 in Kanada. Die Western Interconnection umfasst das Gebiet aus den Rockies West und besteht aus 37 Bilanzierungsbehörden: 34 in den Vereinigten Staaten, 2 in Kanada und 1 in Mexiko. ERCOT deckt die meisten Gebiete von Texas ab,  und ist selbst eine Bilanzierungsbehörde.

Dieser Verbund der Zuständigkeiten zeigt, dass die Zuverlässigkeit von Strom ein regionales und internationales Problem ist. Was lokal passiert, kann Auswirkungen auf die gesamte Region oder die Nation haben oder gar über Landesgrenzen hinweg. Hier ein Beispiel: 1989 verursachte ein Sonnensturm den Stromausfall des elektrischen Netzes in Quebec, der etwa 12 Stunden dauerte. Der Stromausfall verursachte erhebliche Probleme für Stromversorger in New York und New England.

Die Koppelungen der verschiedenen Stromnetze, sowie die ständige Notwendigkeit des Lastausgleichs, können für die Ingenieure zu großen Problemen bei der Bereitstellung von zuverlässiger Elektrizität führen. Die Einspeisung der wetterabhängigen und auch noch stark schwankenden Energie  verstärkt diese Probleme. Anbieter von wetterabhängiger Erzeugung, wie zum Beispiel Windenergie, sollten sich ebenfalls wegen einer inkonsistenten Stromerzeugung sorgen.

Große Missverständnisse bestehen im Hinblick auf das Stromnetz. Wem gehört es und der Strom darin? Der Richter des Obersten Gerichtshofs, Clarence Thomas, sprach kurz und knapp über die Funktionsweise der Stromnetze, wie es von einem Energieingenieur beschrieben worden war. Einer der wenigen sehr nützlichen Ausarbeitungen der „Freunde des Gerichts“, mit denen er in seiner ganzen Karriere in Kontakt war. Versorgungsunternehmen und andere Unternehmen können die Leitungen, die Anschlüsse und die Stromerzeugungsanlagen besitzen, nicht jedoch das Netz selbst. Das Stromnetz ist ein System zur Verteilung und Weiterleitung von elektrischer Energie, bei überregionalen Verbindungen spricht man vom Verbundnetz,  das keinem allein gehört und für alle Benutzer verfügbar ist.

Man könnte sich vorstellen, dass das Verbundnetz dem menschlichen Zentralnervensystem ähnelt. Teile können durch Verletzungen verloren gehen, das System funktioniert jedoch weiterhin. Natürlich kann ein schwerer Schock das gesamte System zum Einsturz bringen. Auf diese Weise kann eine schwere Zerstörung des Stromnetzes dazu führen, dass es für alle katastrophal versagt.

Beim Netz können diese schweren Störungen in Form von Stromstößen und umgekehrt, plötzlichen Leistungseinbrüchen auftreten. Überspannungsstöße im Netz können durch elektrische Stürme, Sonnenstürme oder durch zu starke Einspeisung von Strom erzeugt werden. Stromausfälle können durch den Verlust von elektrischen Leitungen, Stromerzeugungsanlagen und Verbrauchszunahmen entstehen. Solche Stöße können Transformatoren, Netzfilter und andere wichtige Einrichtungen zerstören. Bei dieser Art von Ausfällen kann es Monate dauern, um Ersatz zu bekommen und es zu reparieren, mit zornigen Kunden, die jeden Tag anrufen. Zur Verhinderung eines elektrischem Desasters,  müssen die Ingenieure in den Leitzentralen ständig darauf achten, dass das Angebot an die Nachfrage anpasst ist und die Netzfrequenz mit sehr geringen Toleranzen stabil bleibt, in den USA sind das 60Hz, in Europa sind das 50 Hz. Diese kritische Aufgabe wird „Lastausgleich“ genannt. Auf der anderen Seite, können die unzuverlässigen und schwankenden Einspeisungen wetterabhängiger Energien, das ganze System durcheinander bringen. [Wind- und Sonnenenergie können sehr schlagartig auf hohe Werte ansteigen (Wolken, Böen, …), um ebenso schlagartig auf sehr niedrige Werte zurück zufallen, auch auf NULL ist nichts Seltenes]

In der Tat hört man oft von den Befürwortern von Wind, die Lösung für überschüssige Windenergie, die des Nachts produziert wird und während des Tages nur unzureichende Leistung abgibt, sind smart-grids „intelligente Netze“.  Dies sind Regeleinheiten im Stromnetz, die den Verbrauch beschneiden [also Verbraucher und Haushalte abschalten] um das Stromnetz stabil zu halten – z.B. tagsüber abschalten und nachts anschalten – inzwischen von den Behörden  vorgeschrieben. Solche Regulierungen für den Stromverbrauch sind schon in der Vergangenheit nicht gelungen. Eine der grundlegendsten Herausforderungen, die es zu lösen gilt, bevor das Konzept der „Smart Grids“ optimiert wird: Die meisten von uns bevorzugen in der Nacht zu schlafen und nicht irgendwelche Hausarbeiten zu verrichten.

 

Speicher im Netz

Seit über hundert Jahren versuchen Ingenieure und Energieversorger, das Problem der Stromspeicherung und die Nutzung von Abwärme zu lösen. Thermische Systeme wie Kohlekraftwerke oder neuzeitliche Kernkraftwerke arbeiten am effizientesten im Nennbetrieb. Das Ändern der Energieerzeugung, das Hoch- oder Herunterfahren, führt zu einem übermäßigen Verschleiß des Systems [Materialermüdung durch Wärme- / Kältekontraktion] und zu einem Wärme- gleich Energieverlust – mit anderen Worten zu einer Ineffizienz. Versorgungsunternehmen haben lange erkannt, dass Elektrizität nicht effektiv in den Mengen gespeichert werden kann, die für den kommerziellen Betrieb benötigt werden. (Strom kann in Batterien gespeichert werden, aber die Speichermenge ist winzig im Vergleich zu den enormen Schwankungen des sekündlich, minütlich bis täglich angeforderten Strombedarfs.)

Im Jahr 1924 leistete Connecticut Light and Power Pionierarbeit bei der Entwicklung eines wirklich innovativen Systems zur Nutzung der „Abwärme bei der Stromerzeugung bei Bedarf, genannt Pumpspeicherkraftwerke. In einem solchen System wird überschüssige Energie verwendet, um Elektrizität zu erzeugen, die zu Pumpen fließt, um Wasser von einem niedrig gelegenen See zu einem weiteren in der Höhe zu pumpen. Wird zusätzlicher Strom benötigt, wird das Wasser wieder abgelassen und durch die Rohre auf Wasserturbinen geleitet, die wiederum Strom erzeugen. Im Allgemeinen ist das obere Reservoir zweckgebunden, aber das untere Reservoir kann ein See oder sogar der Ozean sein.

Die größte derartige Anlage der Welt befindet sich in Bath County, Virginia, in der Nähe von West Virginia, mit einer Nennkapazität von 3.000 Megawatt. Das Gebiet verfügt über steile Hügel, ideal für Pumpspeicherkraftwerke. Die beiden Reservoirs wurden zu diesem Zweck gebaut und haben einen Höhenunterschied von knapp 400m. Während des Betriebs kann der Wasserstand des oberen Reservoirs um mehr als 30m und des unteren Reservoir um 20m variieren.

Die 1985 in Betrieb genommene Anlage trägt zum Ausgleich der elektrischen Last bei und nutzt überschüssige Energie aus einem Kernkraftwerk und mehreren Kohlekraftwerken. Es funktioniert ohne Schwierigkeit und erfordert kein zusätzliches Wasser, außer dem Ersetzen der Verdunstung. Den verfügbaren Daten zufolge beträgt der Energieverlust bei solchen Pumpspeicherkraftwerken etwa 20 Prozent (Wirkungsgrad also etwa 80%, hälftig für Pumpe und Generator).

[In Deutschland: Das Pumpspeicherwerk (PSW) Goldisthal

Hier in Goldisthal, im tief eingeschnittenen Tal der Schwarza, ist der Höhenunterschied zu den umliegenden Bergen ausgesprochen groß. So beträgt die Differenz zwischen Talsohle und Bergkuppe an manchen Stellen über 300m. Aus diesem Grund entstand hier eines der größten und modernsten Pumpspeicherwerke Europas. Es hat eine Kapazität von 1060 Megawatt (MW) und ging 2003/2004 in Betrieb. Das eigentliche Kraftwerk ist in einer unterirdischen Kaverne untergebracht. Für weitere Daten zum PSW klicken Sie auf den Link.

Quelle: http://kraftwerke.vattenfall.de/goldisthal]

Leider wurden Vorschläge für ähnliche Einrichtungen an anderen Orten, wie dem Hudson River, von Umweltgruppen scharf abgelehnt. Ironischerweise kommt der bittere Widerstand von den gleichen Umweltorganisationen, die derzeit die Stilllegung traditioneller Öl- und Gaskraftwerke fordern. Wind und Solar werden von vielen dieser Aktivisten fälschlicherweise als einzig gangbare Alternativen angesehen.

 

Subventionierte Fehler – Die Bedeutung der Zuverlässigkeit und des menschlichen Faktors

Die traditionell verstandenen Anlagen  nutzen „fossilen Brennstoff“  (auch bekannt als Öl-, Kohle- und Gaskraftwerke) und können zusammen mit anderen alternativen Kernkraftwerken rund um die Uhr in Betrieb sein. Sie können zu Wartungszwecken nach einem festgelegten Zeitplan leicht abgeschaltet werden [… runtergefahren, wegen der Materialschonung dauert zum Teil Tage!], in Abstimmung zu den anderen Kraftwerksbetreibern. Diese Kraftwerke speisen in der Regel in das lokale Stromnetz ein, das seine Verbraucher mit Strom versorgt, das sind Hausbesitzer, Unternehmen, Industrie und Behörden.

Der Energielieferant wählt die Arten von Energieerzeugern, um die täglichen und saisonalen Schwankungen der Nachfrage nach Elektrizität zu erfüllen, in der Regel nach den niedrigsten Kosten. Die ausgewählten Energieerzeuger, die dann den Strom liefern, sind in bevorzugter Weise einer von vieren: bestehende Kernkraft, Wasserkraft, Kohle und Erdgas. Dieser Aufzählung entspricht in etwa den Betriebskosten von niedrig bis hoch und entspricht auch der Geschwindigkeit -> Zeitdauer, mit der sie von stand-by oder Teillast  auf Volllast kommen (können). Natürlich kontrollieren menschliche Bediener diese Einrichtungen. Gelegentlich werden auch Dieselgeneratoren als Notstromaggregat eingesetzt [Krankenhäuser, öffentliche Infrastruktur, Flugsicherung u.ä.] oder wenn politischer Druck die Schließung von Kohlekraftwerken ohne verfügbare Alternativen erzwingt.

[[Inforum: Lastbereiche des Kraftwerksbetriebes

Die durch die Leistungsanforderungen der Stromverbraucher sich ergebende Netzbelastung muss über einen zeitlich angepaßten Kraftwerksbetrieb gedeckt werden.

Dabei unterscheidet man Grundlast, Mittellast und Spitzenlast. In diesen Bereichen werden die Kraftwerke je nach ihren betriebstechnischen und wirtschaftlichen Eigenschaften eingesetzt.

Grundlast fahren die Laufwasser-, Braunkohle- und Kernkraftwerke, Mittellast die Steinkohle- und Gaskraftwerke und Spitzenlast die Speicher- und Pumpspeicherkraftwerke sowie Gasturbinenanlagen.

Ein optimaler Betrieb ist unter den heutigen und absehbaren Gegebenheiten gesichert, wenn das Verhältnis der Kraftwerksleistung in der Grundlast einerseits und in der Mittel- und Spitzenlast andererseits 1:1 beträgt.

Hier finden Sie Diagramme und Erläuterungen; zu Lastbereichen:  http://www.udo-leuschner.de/basiswissen/SB124-05.htm]]

 

Kernkraftwerke arbeiten typischerweise mit über 90 Prozent der jährlichen Kapazität [Nennabgabeleistung x 8760h x 0.9] und werden nur selten für Wartungsarbeiten abgeschaltet.

[Grundsätzlich gibt es jedoch – in D auf alle Fälle – gesetzlich vorgeschriebene Wartungs- und Revisionsintervalle für alle Energieerzeuger; Erhaltung der Betriebserlaubnis, landläufig TüV genannt]

Aussagen zu Lastfolgebetrieb der KKW, d.h.:  ~ wie wirkt sich auf- und abregeln auf den Betrieb und die Zuverlässigkeit von KKW aus:  https://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Hintergrundpapier-hp021.pdf]]

 

Wasserkraft kann in Ländern mit viel Wasservorkommen und genügend hohen Bergen gut auch als zuverlässiger Stromlieferant genommen werden, z.B. in Norwegen. In manchen Gegenden kann es saisonal bedingte Einschränkungen geben. Um das zu verbessern werden – sofern möglich – auch große Staudämme gebaut. Die Umwelteinwirkungen – Landschaft, Ökosysteme, Besiedlungen sind allerdings enorm.

[Die Nutzung der Kraft des Wassers ist heute als „Erneuerbare Energie“ vereinnahmt:

Quelle:  Umweltbundesamt, Energie aus Wasserkraft 

Die Nutzung der Wasserkraft hat eine jahrhundertealte Tradition. Früher wurde die Energie des Wassers direkt mechanisch genutzt: zum Beispiel in Mühlen. Heute wird die gewonnene Energie mit Generatoren in Strom umgewandelt. Die Wasserkraft hat seit Jahrzehnten einen wichtigen Beitrag zur Stromversorgung geleistet. Heute ist das technische Potenzial jedoch weitestgehend ausgeschöpft.

De.Wiki: Wasserkraft:

1880 wurde das erste Wasserkraftwerk im englischen Northumberland in Betrieb genommen und schon 1896 entstand an den Niagarafällen in den USA das erste Großkraftwerk der Welt.]

 

Kohlekraftwerke benötigen mehr Wartung als KKW oder Wasserkraftwerke.

Erdgas betriebene Kraftwerke können (wie Wasserkraftwerke) schnell auf- und ab-geregelt werden und sind daher vor allem zur Lieferung von kurzzeitiger Spitzenlast geeignet. Allerding sind die Kosten für den Strom unter den „konventionellen“ Kraftwerken aufgrund der Erdgaspreise am teuersten. Nur in den USA lohnt es sich seit einigen Jahren, aufgrund besonders niedriger Gaspreise, die Gaskraftwerke auch für Mittellast zu nutzen. Die modernste Variante nutzt auch die Abwärme weiter aus.

[de.Wiki: Während rein stromerzeugende Anlagen Wirkungsgrade zwischen 33 % (ältere Anlagen) und 61,5 % (Gas-und-Dampf-Kombikraftwerke)[6] erreichen, kommt man bei KWK-Anlagen auf Nutzungsgrade von bis zu 85 % und höher.]

[In Deutschland decken allerdings bei viel Sonnenschein die Photovoltaikanlagen den Bedarf zur Mittagsspitze ab. Gaskraftwerke dürfen aufgrund der EEG – Vorrangeinspeisung daher nicht einspeisen, d.h. Strom in wirtschaftlichen Mengen liefern, so dass diese nicht mehr kostendeckend zu betreiben sind. ]

Zu den in der Erinnerung goldenen Zeiten, ohne zufällig einspeisende [wann?] und in zufälliger Menge [wieviel?] und in zufälliger Zeitdauer [wie lange?] das Netz störende „Erneuerbare Energien“, reichten die „parametrierten“  Regeln aus, um fast ohne menschliche Eingriffe rund um die Uhr die Stromversorgung zu gewährleisten. Heutzutage benötigt eine – beim Verbraucher ankommende, zuverlässige Stromversorgung gut ausgebildete Menschen in den Leitständen der Kraftwerke und der Versorgungsnetze, die auf die Störungen im Netz reagieren und die notwendigen Stromflüsse zeitsynchron und auf Bedarf der Verbraucher einstellen können – In Südaustralien ist allerdings der Punkt, mit unkonventionellen Schaltungen das Netz noch irgendwie „am Laufen zu halten“ , bereits oft genug überschritten worden.

*** Ende des zweiten Teils

Ursprungsbeitrag auf Capital Research

Übernommen von Stopthesethings am 28.07.2018

Übersetzt und ergänzt durch Andreas Demmig

https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work

Auf Eike finden sie obigen Teil 1; Teil 2Teil 3

***




Der ganz kleine Klimawandel

===============================================

Dr. Reinhard Marx

Hierbei wird allgemein unterstellt, dass dieser Wandel von der Menschheit selbst verursacht ist und die Natur kaum dazu beiträgt. Hauptbösewicht sei dabei das durch Verbrennung von fossilen Brennstoffen (Kohle, Erdöl, Erdgas) freigesetzte Kohlendioxid. Diese Verbrennung wird durchgeführt, um ausreichend Energie verschiedener Formen für unsere Lebensgrundlagen zu erhalten – Energie für diese insgesamt unverzichtbaren Grundlagen soll neuerdings durch alternative Gewinnungsweisen erzeugt werden. In Deutschland wurde dazu auch das Gesetz für erneuerbare Energien (EEG) erlassen.

Nun ist es so, dass das Kohlendioxid in der Atmosphäre in der Tat dazu beiträgt, die Abkühlung der Erde während der Nacht zu verlangsamen, woraus resultiert, dass es etwas wärmer bleibt. Dieses „Etwas“ ist allerdings ein sehr kleiner Beitrag bei Betrachtung der durchschnittlichen Erdtemperatur, und spielt im Verhältnis zu einem gesamten Klimawandel, wenn er denn tatsächlich gefährlich wäre, so gut wie keine Rolle, weshalb ich ihn als „den ganz kleinen Klimawandel“ bezeichnen möchte. Man kann den tatsächlich geringen Einfluss des Kohlendioxids rechnerisch relativ leicht zeigen:

Mit gar nicht so komplizierten Formeln und eindeutigen physikalischen Messgrößen ist errechnet, dass eine Verdoppelung des ursprünglichen Gehaltes unseres Spurengases (von 0,03 auf 0,06 Volumenprozent) eine Temperaturerhöhung auf der Erde von rund 1°Cverursachen würde. Diese Zahl ist nicht nur von vielen Wissenschaftlern weltweit festgestellt worden, sondern auch das IPCC, das international gegründet wurde, um menschliche Einflüsse auf das Klima zu untersuchen, ist zu diesem Ergebnis gekommen (IPCC-Bericht von 2007, Kapitel 8.6.2.3).

Alle darüber hinaus gehenden Prognosen von 2 … 5 … Grad werden in den Klimamodellen mit unbewiesenen „sekundären“ hypothetischen Verstärkungs-Prozessen gerechnet !

Nun müssen wir abschätzen, wie viel Kohlendioxid erforderlich wäre, um zu dieser Verdoppelung zu kommen :

Unsere Atmosphäre wiegt 10.000 kg pro Quadratmeter; bei dem ursprünglichen Gehalt von 0,045 Gewichts(!)-prozent sind das 4,5 Kilogramm pro Quadratmeter. Die Erdoberfläche beträgt 510 Millionen Quadratkilometer oder, als m2ausgedrückt, 5,1 ∙ 1014m2. Diese enthalten dann rund 2,3 ∙ 1012t Kohlendioxid mit 27 % C, oder als Kohlenstoffinhalt rund 0,63 ∙ 1012t reinen Kohlenstoff. Soviel Kohlenstoff müsste also durch Verbrennung fossiler Brennstoffe zusätzlich in die Atmosphäre eingebracht werden, um eine Temperaturerhöhung von 1°C zu erreichen.

Mit der Verbrennung von 0,63 ∙ 1012t Kohlenstoff wäre das aber noch nicht geschafft; es gibt zwei Gründe dafür, dass es noch wesentlich mehr sein müsste.

Erstens  ist seit langem festgestellt, dass durch menschliche Aktivitäten eingebrachtes Kohlendioxid nur zur Hälfte in der Atmosphäre verbleibt, die andere Hälfte löst sich im Meer auf und kann zur Temperaturerhöhung nicht beitragen.

Zweitens muss nach einem physikalischen Gesetz (Lambert-Beer’sches) berücksichtigt werden, dass Strahlung (s.u.) nach einer logarithmischen Formel geschwächt wird :

Eine Verdoppelung des die Strahlung absorbierenden Gases (z.B. CO2) trägt also relativ viel weniger zur Absorption bei, zur Verdoppelung muss also viel mehr als das Zweifache vorgelegt werden (was in obiger Verdoppelungsberechnung noch nicht berücksichtigt ist).

Um das anvisierte Ziel von einem Grad Temperaturerhöhung zu erreichen, wäre daher eine Kohlenstoffmenge von etwa 1,6 ∙ 1012t zu verbrennen.

Unsere bisher gefundenen fossilen Brennstoffe, die im Durchschnitt ca. 80% Kohlenstoff enthalten, müssten also mit rund zwei Billionen (= 2 ∙ 1012) Tonnen Gesamtgewicht dazu beitragen, dass es auf der Erde gerade 1°C wärmer wird – so viel ist bisher überhaupt noch nicht entdeckt (bisherige Schätzung in Billionen t : Kohle 0.9, Erdöl 0.3 und Erdgas 0.1). Die Menschheit könnte also ohne Sorge alles bisher Bekannte verbrennen, ohne dass es zu warm würde (maximal + 1°C), und das würde dann für Jahrhunderte reichen.

Über das, was nach einem vollständigen Verbrauch der fossilen Vorräte geschehen müsste, möchte ich in diesem Beitrag nicht diskutieren.

Man kann in den Klimadiskussionen häufig hören, das Kohlendioxid würde die Atmosphäre aufheizen. Das kann unser Gas natürlich überhaupt nicht. Es wirkt vielmehr als ein Isolator der tagsüber aufgewärmten Erde, und das geschieht durch seine Strahlungseigenschaften. Als dreiatomiges Gas kann CO2  infrarote Strahlung (= Wärmestrahlung) bestimmter Wellenlängen (Absorptionsbanden bei 4 und 15 µm) absorbieren und auch emittieren – im Gegensatz zu den Hauptgasen Stickstoff, Sauerstoff und Argon der Atmosphäre, die für Wärmestrahlung vollkommen durchlässig sind.

Des Nachts strahlt die Erdoberfläche ihre tagsüber empfangene Energie wieder in den Weltraum ab und zwar mit Wellenlängen im Bereich von 3 – 80 µm, die also auch die spezifischen Wellenlängen des CObeinhalten. Das in der Atmosphäre enthaltene COwird dadurch angeregt und strahlt dann seinerseits die Energie weiter ab, und zwar nach allen Raumrichtungen, also nicht nur in den Weltraum nach oben, sondern auch als sogenannte „Gegenstrahlung“ in Richtung Erde. Letztere erhält auf diese Weise einen sehr kleinen Teil ihrer abgegebenen Strahlung zurück und kühlt dadurch etwas langsamer ab – das ist der ganze auch gerne als „Treibhauseffekt“ genannte Wärmebeitrag des Kohlendioxids, ein wahrlich „ganz kleiner Beitrag zum Klimawandel“.

Tagsüber strahlen die Erdoberfläche und das COin der Atmosphäre natürlich auch, das spielt aber gegenüber der vielfach stärkeren Sonneneinstrahlung so gut wie keine Rolle.

Sollte ein Klimawandel zu höheren Temperaturen führen als hier gezeigt, wäre das auf natürliche Einflüsse zurückzuführen, wie Sonnenaktivität, Strahlung aus dem All, Wolkenbedeckung, Vulkanismus u.a.

Eine Energiewende, wie von den Politikern betrieben, die ohne Kohlenstoffverbrennung (und auch ohne Kernenergie) auskommen will, ist daher in keiner Weise gerechtfertigt, abgesehen von der praktisch unmöglichen Durchführbarkeit.

 




Des Windkaisers neue Kleider – Teil 1 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

***

Die wenigen Orte, die versuchen, einzig die Wunderbrennstoffe der Natur zu nutzen, sind zu wirtschaftlichen Debakeln geworden. Eine von ihnen, die “Supermacht der  Erneuerbare Energien“  – Südaustralien (SA), erleiden seit Jahren routinemäßigen Lastabwurf : d.h. Energiemangel und in ungeahnte Höhen geschossene Strompreise. Die Südaustralier zahlen die höchsten Strompreise der Welt und SA ist der einzige australische Staat, der landesweite Blackouts erleidet .

Südaustraliens gehirnlose Obsession mit Wind- und Solarenergie wird in dem kleinen Video erwähnt und wird in gut gegliederter Übersicht und  brillant von Kenneth Haapala aus den USA detailliert beschrieben.

Video zur Wind- und Solarenergie von Dr. Steven J. Allen

Des Wind-Gottes neue Kleider
Capital Research, Kenneth Haapala, 22. Mai 2018

Die elektrische Revolution – Zusammenfassung

In den letzten Jahren haben viele Politiker und Projekteure erneuerbarer Energieerzeugung behauptet, dass Strom aus Wind und Sonne die sinnfällige Wahl der Zukunft sei. Als Quellen alternativer Energie sind Wind und Sonne jedoch letztlich unzuverlässig; beide hängen vom Wetter ab, das bekanntlich veränderbar ist. Nichtsdestoweniger haben Regierungen die Nutzung bestimmter Arten von Elektrizitätserzeugung gegenüber anderen bevorzugt, ohne Rücksicht darauf, welche die effizienteste oder praktischste ist. Dieser Artikel untersucht zunächst die Geschichte der am häufigsten Energiequellen und untersucht dann die aktuelle Landschaft alternativer Energiequellen. Obwohl Aktivisten und Regierungsbehörden Wind und Solar (vor allem mit Subventionen) belohnen, gibt es komplexe Gründe, warum die Begeisterung der Verbraucher für deren langfristige Nutzbarkeit weiter abnehmend ist.

Wie sich aktuelle Energieoptionen entwickelten

Es ist schwierig, den aktuellen Stand alternativer Energieoptionen ohne ein klares Verständnis der bestehenden Möglichkeiten und der grundlegenden Konzepte zu verstehen. Beides wird das Verständnis der Herausforderungen klären, vor denen Energieversorger mit alternativen Energien stehen.

Bis etwa 1850 war Holz die Hauptenergiequelle der Welt, ergänzt durch Muskelkraft, Mensch und Tier, und nur einige wenige Mühlen konnten Wasserkraft nutzen. Obwohl Kohle jahrhundertelang abgebaut wurde, ersetzte sie erst Mitte des 19. Jahrhunderts das Holz als primären Brennstoff der Menschheit. Ab etwa 1880 ersetzte Kohle  des höheren Heizwertes wegen, die Holzkohle in Hochöfen und Holz in Dampfmaschinen fast vollständig – es wurde bald zum wichtigsten Brennstoff.

[[ Im 19ten Jahrhundert waren die Wälder in Europa ziemlich abgeholzt, d.h. ausgeplündert, daher im Folgenden weiterführende Informationen für interessierte Leser, der Übersetzer]

[de.Wiki.: Geschichte des Waldes in Mitteleuropa . lesenswerte, ausführliche Beschreibung … Eine Holznot wurde seit dem 16. Jahrhundert und bis ins frühe 19. Jahrhundert regelmäßig beklagt oder befürchtet…

Und auch lesenswert:  Der deutsche Wald, Waldfrevel contra staatlichen Interessen

Von: PD Dr. Uwe Eduard Schmidt, Leiter des Arbeitsbereiches Forstgeschichte des Instituts für Forstpolitik der Universität Freiburg i. Br.

.. um 1830 sind die Gefängnisse überfüllt mit Holzdieben

… Im Liedgut der Revolution 1848/1849 wird immer wieder das Problem der unzureichenden Holzversorgung, der Holzpreissteigerung und der strengen Forstpolizei aufgegriffen….

Hinweis: Als PDF herunter ladbar; Landeszentrale der politischen Bildung Baden-Württemberg, von 2001, verschiedene Autoren]]

Die Kohle förderte die industrielle Revolution und befreite große Teile des Landes von der Abhängigkeit der Subsistenzwirtschaft

 [Wirtschaftsform, die darin besteht, dass eine kleine wirtschaftliche Einheit (z. B. ein Bauernhof) alle für den eigenen Verbrauch benötigten Güter selbst produziert und deshalb vom Markt unabhängig ist]

– einer Lebensweise, unter der viele Menschen litten, wobei die gesamte Bevölkerung durch eine schlechte Ernte immer kurz vor dem Verhungern war [- kleine Eiszeit, viele Jahre mit reduzierter und schlechter Wachstumsperiode]. In der Zwischenzeit erlaubt die verstärkte Nutzung von Kohle, auch verderbliche Agrargüter für weiter entfernt lebende Kundschaft anzubieten. Der Transport  von ländlichen Betrieben in städtische Gebiete kann leicht und preiswert per Eisenbahn organisiert werden [auch entfällt oft der „Sicherheitsdienst“, da fahrende Züge schlecht zu berauben sind!]. Viele Städte kämpften erfolgreich um eine Eisenbahnhaltestelle in ihrer Stadt. Mit Waren beladene Handelsschiffe, die auf Flüssen oder Kanälen ihr Ziel erreichten, waren zu Beginn des Jahrhunderts für den Transport von entscheidender Bedeutung, wurden durch die Schiene allmählich marginalisiert. Bergketten, Wüsten, reißende Flüsse und andere natürliche Hindernisse stellten inzwischen keine großen Handelsbarrieren mehr dar.

Obwohl Erdöl seit Jahrtausenden in Lampen verwendet wurde (die ersten primitiven Ölquellen wurden im 4. Jahrhundert in China erschlossen; die ersten modernen Bohrlöcher wurden 1848 in Baku, Aserbaidschan, gebohrt), kam die Industrie erst 1859 zu ihrem Recht. In diesem Jahr bohrte Edwin Drake sein berühmtes Bohrloch in Titusville, Pennsylvania, und förderte sowohl Öl als auch Erdgas. Die Öl- und Gasindustrie explodierte förmlich in den nächsten Jahrzehnten. Kerosin ersetzte schnell teurere Walöle und rauchige Kerzen für die Heimbeleuchtung. Im Jahr 1885 erfand Robert Bunsen ein Gerät, das Erdgas mit Luft mischte und es damit für eine sichere Nutzung erschloss [Gaslampen und Gaslaternen]. Ölproduzenten und die breite Öffentlichkeit erkannten schnell, dass die Energie der Zukunft in Öl und Erdgas lag.

1882 eröffnete Thomas Edison das erste Kohlekraftwerk in der Pearl Street Station in Manhattan.  Elektrizität-per-Draht hat die Welt bald verändert und wird von vielen Historikern als einer der beiden wichtigsten Beiträge zur modernen Zivilisation angesehen (nach der Druckerpresse im 15. Jahrhundert).

[… die Energieübertragung  durch eine elektrische Fernleitung wurde 1891 erstmalig in Deutschland demonstriert: Vom Kraftwerk in Lauffen am Neckar über 175km zum Messegelände in Frankfurt/Main anlässlich der ‚Internationale Elektrotechnische Ausstellung‘. … der bis dahin vorherrschende Gleichstrom hatte sich als echte Innovationsbremse erwiesen…]

Diese technologische Innovation hat die Welt im Zeitraum einer einzigen Lebensspanne verändert. Der Wettbewerb zwischen den Arten der Stromübertragung favorisierte Wechselstrom (AC) gegenüber Edison’s Gleichstrom (DC); andere Innovationen in der Stromerzeugung folgten schnell. Die Elektrifizierung wurde zum Kennzeichen der modernen industriellen Zivilisation.

Die Energie-Innovationen der Mitte des 19. Jahrhunderts geschahen ohne den Einfluss staatlicher Subventionen. [Wie auch die Entwicklung und der Bau von Schienenverkehr –  Eisenbahn und Straßenbahn!].  Aber dann kam der Kalte Krieg.

 

Beginn der Regierungsbeteiligung

Ein Sprung in die 1970er Jahre. Die Nachfrage nach Energie – speziell Erdöl – ist in den Industrieländern während des Kalten Krieges hoch. Die Beteiligung der Vereinigten Staaten am Yom-Kippur-Krieg brachte die Sowjetunion in Aufruhr und führte zu einem Ölembargo der Organisation erdölexportierender Länder (OPEC), was zu einem massiven Gasmangel führte.

Nach der Jahrtausendwende glaubten die politischen Entscheidungsträger erneut, dass dem Land Öl und Gas ausgingen und reagierten mit der Verabschiedung des Energy Policy Act von 2005, der umfangreiche Subventionen in Form von marktfähigen Steuergutschriften für alternative Energiequellen (Wind- und Solarenergie) vorsah ) und die Verwendung von Biokraftstoffen in Benzin forderten.

Die Bundesregierung [hier gemeint: in USA; aber auch in D war es ähnlich], zeigte sich erstmal zurückhaltend, als der Strombedarf zunahm. Inzwischen wird „Stromsparen“ durch die Politik den Verbrauchern empfohlen – besonders wenn er durch Öl, Kohle und Gas erzeugt wird. Stattdessen fördern und subventionieren die Politiker in der  Regierung „erneuerbare Energie“, die die Menschen wieder von den Wetterelementen abhängig macht.

 

Grenzen von Wind und Solar – Kann Wind eine Alternative zu thermischer Energie sein?
Wind wird seit tausenden von Jahren verwendet, um Segelschiffe anzutreiben und später Räder anzutreiben, um Getreide zu mahlen und Wasser zu pumpen. Die erste Windmühle zur Stromerzeugung in den USA, „The Brush“ genannt, wurde 1887-88 von Charles Brush in Cleveland gebaut. Bei dieser Vorrichtung treibt ein großer vom Wind angetriebener Rotor wiederum einen Generator mit einer vertikalen Welle an. Im 19. und 20. Jahrhundert wurden im ganzen Mittleren Westen einige tausend solcher Windmühlen installiert, die Elektrizität und Pumpwasser erzeugten. Aber „The Brush“ hatte seinen Nutzen verloren, als die Stromversorgung von zuverlässigen zentralisierten Erzeugungsanlagen verfügbar wurde.

Seit den pittoresken Tagen der Brush, gab es bedeutende Veränderungen an den Windmühlen, die versuchen Strom zu erzeugen, verstärkt durch das OPEC Ölembargo der frühen 1970er Jahre. Diese Bemühungen haben zu der modernen Windkraftanlage geführt.

Im Jahr 1919 stellte der Physiker Albert Betz eine hypothetische Grenze für die Energie fest, die eine Windmaschine umwandeln kann; die maximale Energieausnutzung kommt auf etwa 59 Prozent der kinetischen Energie des durchfließenden Windes. Heute kommen die effizientesten Turbinen [an fast 50% heran], über aerodynamische geformte Rotorflügel, bei denen die kinetische Energie des Windes auf einer Achse erfasst wird, die direkt dem Wind zugewandt ist. Sicherheitsmerkmale müssen in das Design integriert werden, um sicherzustellen, dass starke Windböen nicht zur Selbstzerstörung des Geräts führen. Außerdem müssen Windkraftanlagen bei verschiedenen Windgeschwindigkeiten verwertbaren Strom erzeugen. Unterschiedliche Windgeschwindigkeiten und notwendige Mindestdrehzahlen für die Generatoren erfordern oft ein Getriebe, inzwischen gibt es allerdings auch getriebelose Anlagen – beides hat Vor- und Nachteile, nähere Information hier.

Das Endergebnis ist eine komplexe Konstruktion, bei der der Generator und das Getriebe entlang der Achse der Flügel (Nabe) in einem Gehäuse angeordnet sind, die als Gondel bezeichnet wird. Diese Windturbinen erreichen bei vorgegebener Windgeschwindigkeit 70 bis 80 Prozent der theoretischen Grenzwerte. Moderne Turbinen beginnen  ab 10 bis 15 km/h Strom zu erzeugen, wobei die Nennleistung bei 40 bis 60 km/h und einer Abschaltgeschwindigkeit von 145 km/h erreicht wird. [-nicht nachrecherchiert], konstante Windgeschwindigkeiten voraus gesetzt, keine Böen. Moderne Windturbinen haben ihre theoretischen Grenzen erreicht; ob noch ein großer technologischer Durchbruch möglich ist, um diese Grenzen zu überschreiten, ist unbekannt.

Die inkonsistente Energieerzeugung ist nicht der einzige Nachteil von Windkraftanlagen.

Nur wenige Personen außerhalb des begrenzten Kreises von Ingenieuren für Windkraftanlagen kennen die enorme Menge an Beton, die für das Fundament eines Windturms benötigt wird. Eine Standard-1,5-MW-GE-Turbinen- und Blattanordnung mit einem Gewicht von etwa 92 Tonnen wird auf einem Turm etwa 63 m über dem Boden angeordnet. Das Drehmoment, das von einem großen Rotor mit einer hohen Geschwindigkeit erzeugt wird, entspricht einem Schulbus, der am Ende einer Planke mit der Länge eines Fußballfeldes befestigt ist. Daher muss die Basis in der Tat sehr stark und dick sein; Gegenwärtig können solche Fundamente mehr als 550 Tonnen Beton und 45 Tonnen Bewehrungsstahl enthalten. [[ In Deutschland hat die größte WKA 178m Nabenhöhe, Gesamt 246,5 m]]

Wenn Windturbinenschaufeln den Turm passieren, erzeugen sie niederfrequente Schallwellen; Diese Art von Schall bewegt sich über große Entfernungen und kann bei einem kleinen Prozentsatz sensibler Personen sehr störend sein, was zu Störungen des Innenohrs und zu Beeinträchtigungen des Gleichgewichts führt. [Weiterführende Information hier und hier]]

 

Was ist mit Solar?

Auch der Ursprung der Innovation der Solarenergie stammt aus der Zeit der industriellen Revolution. Die photovoltaische (PV) Technologie wurde erstmals in der Mitte des 19. Jahrhunderts demonstriert, aber die ersten Versuche waren ineffizient und lieferten nur einen schwachen elektrischen Strom. Im Jahr 1921 erhielt Albert Einstein einen Physik-Nobelpreis für die Erklärung des Prozesses, der durch Licht Elektrizität erzeugt, Forschung, die zum Teil die Grundlage der späteren Generationen der Technologie bildete.

In diesem Fall begann die Beteiligung der Regierung an der Förderung der Solarenergie durch militärische Forschung. Nach dem Zweiten Weltkrieg trugen Forschungen des Naval Research Laboratory und der National Aeronautics and Space Administration dazu bei, die frühe PV-Technologie voranzutreiben.

Das Interesse an Solarenergie ist wiederum das Ergebnis der Energiekrise der 70er Jahre. Die in dieser Ära erlassene Gesetzgebung erweiterte den Einsatz von Solartechnologie in Bundesgebäuden (Präsident Jimmy Carter war der erste Präsident, der Sonnenkollektoren im Weißen Haus installierte) und erhöhte Forschungsbudgets, um Sonnenenergie erschwinglicher und verfügbarer zu machen.

Trotz der Attraktivität der Solarenergie hat sich die Stromproduktion als schwierig erwiesen. Damit Solarenergie Strom mit einer Kapazität von 60 Prozent [der maximalen „Peak“ Leistung] erzeugen kann, die in der Nähe des Spitzenwerts liegt, benötigen Solarkollektoren wolkenlosen Himmel und hochstehende und geradlinig daraufscheinende Sonne. Selbst in einer der besten Gegenden für Solaranlagen in den USA (Tucson, Arizona) erzeugen Solar-Photovoltaik-Module den Strom mit 60 Prozent Kapazität nur etwa für  4 bis 5 Stunden pro Tag, abhängig von der Jahreszeit. Natürlich erzeugen sie nichts zwischen Sonnenuntergang und Morgendämmerung. [Von Fans dieser Technologie wird immer angeführt, PV-Module erzeugen auch bei bedecktem Himmel noch Strom – ja, das stimmt, nur nicht viel]

Die industrielle Solarthermie wurde angepriesen, um einige der Einschränkungen von Solarmodulen zu überwinden. Die im Februar 2014 offiziell eröffnete Ivanpah Solar Power in Kalifornien zum Beispiel, konzentriert die Sonnenstrahlen über bewegliche Spiegel auf Türme im Zentrum, die Dampf für den Antrieb von Dampfturbinen erzeugen. Leider ist das System eine teure Enttäuschung. Es arbeitet mit einer durchschnittlichen Kapazität von weniger als 21 Prozent [8760 Jahresstunden mal Nennleistung = 100%]. Entsprechend der geplanten Kapazität sollte es eine durchschnittliche Kapazität von über 27 Prozent erreichen. Aufgrund fehlender Daten sind die tatsächlichen Betriebskosten schwer zu berechnen, aber sie scheinen nahe an den Kosten eines modernen neuen Kernkraftwerks zu liegen, das rund um die Uhr Strom produziert. Außerdem benötigt die Anlage trotz allem Erdgas, um die Salzschmelze in dem Kessel wieder zu schmelzen – und um evtl. Lieferrückstände zu erfüllen (vereinbarte Strommenge an Abnehmer).

Zu dem Solarkraftwerk und den Betriebskosten finden Sie auf Eike übersetzte Berichte: hier in 2014 und hier in 2016 und hier in 2018.

*** Ende des ersten Teils

Ursprungsbeitrag auf Capital Research

Übernommen von Stopthesethings am 28.07.2018

Übersetzt und ergänzt durch Andreas Demmig

https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work/

Auf Eike finden sie obigen Teil 1; Teil 2Teil 3




Der Kampf gegen Globale Ergrünung – Teil 4

Schlechtes hinsichtlich Globaler Ergrünung: (zitiert aus Zimmers Artikel):

1. Mehr Photosynthese bedeutet nicht mehr Nahrungsmittel.

2. Zusätzliches Kohlendioxid kann Pflanzen weniger nahrhaft machen.

3. Mehr Pflanzen verhindern nicht den Klimawandel.

4. Globale Ergrünung wird nicht ewig dauern

Im Teil 1 haben wir die Frage nach der Relation zwischen gesteigerter Photosynthese und Nahrungsmittel-Erzeugung beleuchtet (Nr. 1 bei Zimmer). Im 2. Teil ging es um die Behauptung, dass „mehr Kohlendioxid die Pflanzen weniger nährstoffreich machen kann“. Im 3. Teil wurde die Tatsache besprochen, dass die Globale Ergrünung allein nicht den Klimawandel verhindern würde. In diesem letzten und kürzeren Teil schreibe ich über die offensichtlich wahre Tatsache, dass Globale Ergrünung nicht ewig dauern wird.

Schauen wir also auf Nr. 4: „Globale Ergrünung wird nicht ewig dauern“

Zimmer und Campbell sagen:

Globale Ergrünung wird nicht ewig dauern

Es gibt immer noch Vieles, was Dr. Campbell und seine Kollegen hinsichtlich der globalen Ergrünung nicht verstehen. Am bedeutendsten ist, dass sie nicht wissen, wie lange sie dauern wird.

Mit steigenden Temperaturen und Veränderungen der Regenmengen könnten die Pflanzen aufhören, zusätzlich Kohlendioxid aufzunehmen.

Pflanzen nehmen in aller Stille den Anteil von Chinas Kohlenstoff-Emissionen auf. Was mich ängstigt ist, dass dies nicht immer so weitergehen kann“, sagte Dr. Campbell. „Falls die Atmung mit der Photosynthese mithält, könnte dieses gewaltige Kohlenstoff-Reservoir immer noch zurück in unsere Luft gelangen“.

Carl Zimmer im NYT-Artikel

Ich möchte mal versuchen, den Standpunkt von Zimmer (und Campbell) besser darzustellen als sie es tun.

Zimmer räumt ein, dass das Thema Globale Ergrünung ganz neu ist und noch voller Unbekannter steckt … die übliche Liste enthält u. A. bekannte Unbekannte, unbekannte Unbekannte usw. Es ist erfrischend, nichts weniger als Allmacht und ,settled‚ Wissenschaft zu sehen.

Am wichtigsten ist, dass sie nicht wissen wie lange sie dauern wird“, sagte Zimmer.

Nun, das weiß auch ich nicht noch sonst jemand. Es gibt jedoch relevante Forschungen zu diesem Thema – Betreiber von Treibhäusern haben Blumen und andere Pflanzen unter erhöhten CO2-Konzentrationen über viele Jahre wachsen lassen, und es scheint keine Obergrenze von CO2-Konzentrationen in dieser Hinsicht zu geben, welche sich in der Atmosphäre anreichern, zumindest nicht in diesem oder im nächsten Jahrhundert.

Obwohl also verschiedene Pflanzen ihre individuellen CO2-Sättigungspunkte haben (also der Punkt, an dem weiter zunehmende CO2-Konzentrationen nicht die Photosynthese weiter zunehmen lassen – hier orange dargestellt), ist die von vielen Experten allgemein angenommene Zahl für beste Bedingungen 1000 ppm. (Obige Graphik ist lediglich illustrativ). Wichtig ist, dass Pflanzen allgemein die Photosynthese mit zusätzlichem CO2 verstärken – bis zu einem Niveau von 1000 ppm.

Die mittlere jährliche Zunahme von atmosphärischem CO2 im 21. Jahrhundert beträgt etwa 2,5 ppm pro Jahr. Das gibt uns also 240 mehr Jahre möglicher Ergrünungseffekte durch CO2-Zunahme – falls die Emissionen mit der gleichen Rate weitergehen und niemand versucht, die Emissions-Reduktionsziele von Paris zu erreichen. Natürlich werden einige Pflanzen bereits bei 800 ppm damit aufhören, andere Pflanzen mögen nicht genug Wasser finden, und wieder anderen könnten die Nährstoffe ausgehen.

Nun haben Zimmer und Campbell Angst davor, dass die Horror-Story des Szenarios RCP 8.5 eintreten wird, dass nämlich die mittlere Temperatur des Planeten so stark steigen und Dürren so ausgeprägt werden (solange es nicht Überschwemmungen sind), dass Pflanzen nicht nur die Aufnahme des chinesischen Anteils an den Emissionen einstellen, sondern dass sie alle sterben und dass all der Kohlenstoff zurück in die Atmosphäre gelangt – alles auf einmal – als CO2 durch Verrottung der Pflanzen. Das meint Campbell mit seinen Worten „Falls die Atmung die Photosynthese einholt, kann dieses gewaltige Kohlenstoff-Reservoir zurück in die Atmosphäre gelangen“.

Es ist sicherlich richtig, dass wenn alle Pflanzen sterben würden – oder auch nur ein großer Anteil von ihnen – die Verrottung derselben aufgrund natürlicher Prozesse auf und unter der Erdoberfläche das aufgenommene CO2 wieder emittieren würden – das Prinzip der biologischen Atmung im Kohlenstoff-Kreislauf. Dieser sieht so aus:

Zimmers Katastrophen-Befürchtungen werden sich nicht materialisieren wegen der grauen Boxen im Kohlenstoffkreislauf-Diagramm – das sind Kohlenstoff-Senken. Sie sind nicht analog zu Campbells „Kohlenstoff-Reservoir“ – sie sind kein großer See voller Kohlendioxid, der nur darauf wartet, sich zurück in die Atmosphäre zu „ergießen“. Wir erkennen „Atmung“ genau über der schwarz-weißen Kuh im Diagramm. Genauer, der Fluss von CO2 in die Atmosphäre durch Zerfall und Teil des Austausches mit den Ozeanen kann auch als Atmung im Kohlenstoff-Kreislauf betrachtet werden. Die Kohlenstoff-Senken, erzeugt als Kohlendioxid, haben sich durch Photosynthese sowie durch das Tier- und Pflanzenleben in Vegetation transformiert (Blätter, Stämme etc.), es wurde zu Erde und organischem Material in der Erde; ein Teil ist in den Oberflächenschichten der Ozeane eingeschlossen, und ein großer Teil ist auf den Meeresboden gesunken. Von dort taucht es für Jahrhunderte und Jahrtausende nicht mehr auf; Sedimente am Ozeanboden sind kohlenstoffhaltig und werden vielleicht zu Sedimentgestein, Einiges davon ist zu Öl und Kohle und Gas geworden und wird es weiterhin; und Einiges ist eingeschlossen in den Körpern aller auf der Erde lebenden Tiere, einschließlich 8 Millionen Menschen.

Dr. Campbell muss ganz schön durcheinander sein, falls er wirklich glaubt, dass das „Ende der globalen Ergrünung“ in irgendeiner Form zur Bedrohung in Gestalt eines Rückflusses von Kohlenstoff zurück in die Atmosphäre wird.

In einem früheren Beitrag dieser Reihe habe ich es angesprochen – es ist die biologische Abscheidung von Kohlenstoff, und ist er erst einmal abgeschieden, wird der Kohlenstoff über verschiedene Zeiträume nicht wieder als Kohlendioxid in die Atmosphäre gelangen – Zeiträume im Maßstab von Tagen bis zu Jahrtausenden.

Aber Zimmer und Campbell fürchten einen anderen Aspekt der globalen Ergrünung: Was ist, falls die Menschen weiterhin 40, 50 oder 60 Milliarden Tonnen CO2 jährlich freisetzen und alles irgendwie unter Kontrolle bleibt durch die Tatsache, dass die Natur 10, 12, 15 Milliarden Tonnen CO2 jährlich aufnimmt – und die Natur mit CO2 gesättigt ist und die Photosynthese nicht mehr zunimmt, während die CO2-Emissionen steigen und steigen?

Nun, ich schätze mal, dass das im Bereich der Möglichkeiten liegt – aber wie viele alarmistischen Visionen der Zukunft beruht es auf der Annahme, dass alles so bleibt, wie es jetzt ist, oder dass alles immer schlimmer wird – und die viel wahrscheinlichere Möglichkeit, dass sich die Menschheit anpassen und Nutzen aus den positiven Auswirkungen einer sich ändernden Welt und eines sich ändernden Klimas zieht, wird gar nicht erst in Betracht gezogen.

Ich glaube nicht, dass es zu optimistisch ist zu erwarten, dass wir während der nächsten 150 Jahre Durchbrüche bzgl. Energie erleben werden, welche unsere Sorgen hinsichtlich der globalen Erwärmung obsolet macht, weil wir keine Kohlenwasserstoffe mehr verbrennen müssen, um Strom zu erzeugen – Öl, Gas, Kohle, Holz.

Während der letzten 150 Jahre sind wir von der Verbrennung von Torf, Holz und Holzkohle zum massive Kohle- und Petroleumzeitalter gekommen. Das Kernkraft-Zeitalter hat einen guten Anfang genommen, lediglich behindert durch Pseudo-Befürchtungen von Anti-Kernkraft-Aktivisten. Man darf hoffen, dass durch neueste Entwicklungen bzgl. Kernkraftwerken und Hoffnungen bzgl. Fusion das Kernkraft-Zeitalter immer mehr in Fahrt kommt.

Worüber wir uns keine Sorgen zu machen brauchen sind die grundlosen, von Dr. Campbell ausgestoßenen Befürchtungen, die von Zimmer in der NYT nachgeplappert werden – die Tatsache, dass globale Ergrünung nicht ewig dauern wird, ist eine simple biologische Tatsache und hat keine absehbaren Nachteile für die Menschheit.

Globale Ergrünung ist nicht schrecklich – GLOBALE ERGRÜNUNG ist WUNDERBAR!

Kommentar des Autors: Worum ich mir wirklich Sorgen mache ist, dass der normale NYT-Leser so wenig wissenschaftliches Hintergrundwissen hat, dass er Zimmers Artikel „Globale Ergrünung … ist schrecklich“ einfach liest und nicht die Unlogik und Pseudo-Wissenschaft dahinter durchschaut. Ich kann nur hoffen, dass einige davon auch auf diesem Blog lesen.

Quick Links:

The Fight Against Global Greening – Part 1

The Fight Against Global Greening – Part 2

The Fight Against Global Greening – Part 3

NY Times article “Global Greening….it’s Terrible

bio-sequestration of carbon

Link: https://wattsupwiththat.com/2018/08/19/the-fight-against-global-greening-part-4/

Übersetzt von Chris Frey EIKE




ACHGUT Seite auf Facebook behindert

Mitteilung zu Achgut.com auf Facebook

Seit heute Vormittag treten erhebliche Probleme bei der Verwaltung unserer Facebook-Präsenz auf. Beiträge, welche externe Links enthalten, können nicht mehr auf der Facebook-Seite der Achse des Guten gepostet werden oder werden nach wenigen Minuten gelöscht. Wir können Sie daher auf Facebook leider nicht mehr auf unsere aktuellen Artikel und Fundstücke hinweisen.

Eine Begründung hat Facebook nicht angegeben. Wir prüfen derzeit rechtliche Schritte.

Bei Twitter (@Achgut_com) gibt es keine Einschränkungen.

Sie können diese Information gerne in den sozialen Medien weiterverbreiten.

Social Media Redaktion

Achgut.com




Temperatur-Manipulationen mildern Wutanfälle

Normalerweise habe ich den RSS-Datensatz als meine Hauptquelle herangezogen, weil es der erste war, der seine monatlichen Daten veröffentlichte. Im November 2015 jedoch, nachdem der Datensatz seit 18 Jahren und 9 Monaten keine Erwärmung gezeigt hatte, zeigte Senator Ted Cruz unsere Graphik der RSS-Daten bei einer Anhörung im US-Senat, um eben diesen Stillstand zu erklären. Die Demokraten waren darob sichtlich ungehalten und suchten nichts Geringeres als einen Admiral aus, der – erfolglos – versuchen sollte, die Graphik zu widerlegen. Ich habe bereits damals vorausgesagt, dass Carl Mears, der Betreiber jenes Datensatzes, zur rechten Zeit alle drei längsten terrestrischen Datensätze kopieren – GISS, NOAA und HadCRUT4 – und diese so überarbeiten würde, dass der lange Stillstand daraus verschwinden würde. Damit sollte eine erheblich größere globale Erwärmung suggeriert werden als die ursprünglich veröffentlichten Daten gezeigt hatten.

Der lineare Regressionstrend kleinster Quadrate im Satelliten-Datensatz RSS der globalen mittleren Temperatur-Anomalie zeigt vor der Revision seit 18 Jahren und 9 Monaten keine Erwärmung (von Februar 1997 bis Oktober 2015), obwohl ein Drittel aller anthropogenen Antriebe während genau dieses Zeitraumes angefallen war. Ted Cruz forderte im November 2015 mit dieser Graphik die „Demokraten“ im Senat heraus.

Wie könnte es anders sein – gleich im nächsten Monat unterwarf Dr. Mears (der die RSS-Website dazu missbraucht, Skeptiker der globalen Erwärmung als „Leugner“ zu verunglimpfen) seinen Datensatz dem Adjustozän, indem er den RSS-Datensatz gebührend bearbeitete, um den Stillstand zu eliminieren. Zweifellos ist er von seinen Klima-extremistischen Gesinnungsgenossen bedrängt worden, etwas zu tun, um die Skeptiker zum Schweigen zu bringen, damit diese nicht mehr auf das auffallende Fehlen jedweder globaler Erwärmung hinweisen während eines Zeitraumes, als ein Drittel des menschlichen Einflusses auf das Klima angefallen war. Und siehe da, auf einmal war der Stillstand weg:

Willkommen im Adjustozän: RSS fügt 1 K pro Jahrhundert dem hinzu, was einst der Stillstand war.

Wie sich herausstellte, hätte sich Dr. sMear* nicht die Mühe machen brauchen, den Stillstand zu beseitigen. Ein großes El Niño-Ereignis machte das sowieso. Allerdings zeigt eine interessante Analyse von Prof. Fritz Vahrenholt und Dr Sebastian Lüning hier, dass dieser Datensatz nicht länger als zuverlässig gelten kann, nachdem man ihn derartig manipuliert hatte. Die Analyse bringt ans Tageslicht, wie der RSS Datensatz bearbeitet worden war. Die zwei Wissenschaftler kommen zu dem Ergebnis, dass die Nachbearbeitung [ex-post-facto post-processing] der Satellitendaten seitens RSS unzureichend gerechtfertigt worden ist:

[*Wieder ein solches Wortspiel. Der Lord verschiebt das ,s‘ im Namen nach vorne, so dass sich ,smear‘ ergibt = Dr. Schmiere. Anm. d. Übers.]

Monatliche globale mittlere Temperaturanomalien von RSS vom Januar 1979 bis Juni 2018. Die nicht manipulierte Version ist in rot, die bearbeitete Version in blau dargestellt. Die dicken Kurven sind über 37 Monate geglättete Mittelwerte. Graphik von Prof. Ole Humlum von seiner guten Website www.climate4you.com.

RSS hob die zuvor gemessenen Temperaturen seit dem Jahr 2000 an, was die Erwärmungsrate insgesamt seit 1979 um 0,15 K, nämlich von 0,62 K auf jetzt 0,77 K hat zunehmen lassen:

Man hätte es nicht machen dürfen, aber Lüning und Vahrenholt haben entdeckt, dass RSS das getan hat.

Im Jahr bevor die RSS-Daten Mannipuliert [in Anspielung auf Prof. Mann, Anm. d. Übers.] worden waren, hatte RSS begonnen, sich ernsthaft für die Länge des Stillstands zu interessieren. Dr. Mears schrieb darüber auf seinem Blog hier. Seine damaligen Ergebnisse sind hier zusammengefasst:

Ergebnis von 33 IPCC-Modellen (türkis) im Vergleich zur gemessenen globalen Temperaturänderung seitens RSS (schwarz), 1979 bis 2014.

Darauf bekam Dr. Mears einen Temperatur-Wutanfall und schrieb:

„Die Leugner lieben es zu vermuten, dass die Ursache der Diskrepanz zwischen Modellen und Beobachtungen in irgendeinem Problem mit der zugrunde liegenden Modellphysik zu finden ist, und sie verwerfen jede andere Art der Erklärung. Dies verleitet sie zu der – sehr wahrscheinlich falschen – Schlussfolgerung, dass die langfristige Klima-Sensitivität viel geringer ist als gegenwärtig gedacht“.

Dr. Mears räumte die wachsende Diskrepanz zwischen RSS-Daten und Modellen ein, aber er unterstellte uns, dass wir den Startzeitpunkt der globalen Temperatur-Graphik cherry-picked hätten:

„Jüngst ging aus einer Anzahl von Artikeln in der Mainstream-Presse hervor, dass es während der letzten zwei Jahrzehnte kaum eine oder gar keine Änderung der globalen mittleren Temperatur gegeben hat. Deswegen hat man uns viele Fragen gestellt nach dem Motto ,Ich sah diese Graphik auf einer Leugner-Website. Sind das wirklich Ihre Daten?‘ Während die Endpunkte in einigen dieser Berichte cherry-picked worden sind, um den Beweis noch besser aussehen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als die meisten IPCC AR5-Simulationen des historischen Klimas prophezeit hatten. Damit liegt das starke ENSO-Ereignis am Beginn ihrer Zeitreihe, was zu einer geringen linearen Anpassung mit der geringstmöglichen Steigung führte“.

Tatsächlich wurde die durch den El Nino ausgelöste Wärmespitze 1998 fast vollständig ausgeglichen durch zwei Faktoren: die nicht unähnliche Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.

Graphiken von Werner Brozek und Prof. Brown der RSS- und GISS-Temperaturen. Beide beginnen 1997 und 2000. In jedem Datensatz sind die Trendlinien nahezu identisch. Folglich ist die Aussage, dass der Stillstand dem El Nino 1998 geschuldet ist, falsch.

Obige Graphik demonstriert, dass die Trends der globalen Temperatur im RSS-Datensatz vor der Manipulation und im GISS-Datensatz genau gleich waren, und zwar vor und nach dem El Nino 1998. Dies zeigt, dass die Länge des Stillstands ausreichend war, um den imaginären Einfluss zu nullifizieren.

Es ist nützlich, die Erwärmung seit 1990, genommen als Mittel der vier Adjustozän-Datensätze (RSS, GISS, NCEI und HadCRUT4: erste Graphik unten) zu vergleichen mit dem UAH-Datensatz, den Lüning und Vahrenholt als zuverlässig einstufen (zweite Graphik unten):

Mittel der monatlichen mittleren Temperaturanomalien nach RSS, GISS, NCEI und HadCRUT4 von Januar 1990 bis Juni 2018 (dunkelblaue Zackenkurve) und des linearen Regressionstrends kleinster Quadrate (hellblaue Linie) im Vergleich mit dem geringeren der beiden IPCC-Mittelfrist-Prophezeiungen (Bereich in orange).

Anomalien der unteren Troposphäre nebst Trend von Januar 1990 bis Juni 2018 nach UAH.

Man sieht, dass der Erwärmungstrend in den Adjustozän-Datensätzen über den Zeitraum fast 50% größer ist als im UAH-Datensatz, welchen Lüning und Vahrenholt zuverlässiger finden.

Nach den Adjustierungen zeigt der RSS-Datensatz seit 1990 jetzt eine stärkere Erwärmung als jeder andere Datensatz, die sogar noch über den vielfach manipulierten GISS-Datensatz hinausgeht:

Auf ein Jahrhundert umgerechnete globale Erwärmungstrends von Januar 1990 bis Juni 2018. Die beiden mittelfristigen IPCC-Prophezeiungen für das Szenario ,Business as Usual‘ und unsere überarbeiteten Prognosen nach Korrektur des Fehlers in der Definition von Temperatur-Rückkopplung seitens der offiziellen Klimatologie (weiße Beschriftung) im Vergleich zu beobachteten Raten (blaue Beschriftung) aus den fünf am weitesten zurückreichenden Datensätzen.

Man beachte, dass die RSS-Erwärmungsrate seit 1990 nahezu doppelt so hoch ist wie bei UAH, wo man dessen globale Erwärmungsrate vor zwei oder drei Jahren nach unten korrigiert hatte. Und doch beruhen beide Datensätze auf genau den gleichen Satellitendaten. Die Differenz von fast 1 K pro Jahrhundert zeigt, wie stark Temperatur-Datensätze auf subjektive Adjustierungen reagieren anstatt objektive Messungen zu repräsentieren.

Sollen wir einmal zynisch annehmen, dass alle diese Adjustierungen – RSS, GISS, NCEI und HadCRUT4 zum Wärmeren, UAH leicht zum Kälteren – die politische Ausrichtung der jeweiligen Datensatz-Besitzer reflektieren? Lüning und Vahrenholt können keine rationale Rechtfertigung finden für die große und plötzliche Änderung des RSS-Datensatzes so bald, nachdem Ted Cruz unsere den Stillstand zeigende RSS-Graphik für eine Anhörung vor dem Senat herangezogen hatte. Allerdings konnten sie auch nicht feststellen, dass die UAH-Daten fälschlich adjustiert worden waren. Sie empfehlen UAH als in Ordnung.

Die MofB [= Monckton of Brenchley]-Nachhersage basiert auf zwei Fakten: Wir berechnen die Charney-Sensitivität auf lediglich 1,17 K pro CO2-Verdoppelung, und außerdem ist in vielen Modellen die prognostizierte Gleichgewichts-Erwärmung bei einer Verdoppelung der CO2-Konzentration die Charney-Sensitivität in etwa gleich der flüchtigen Erwärmung aus allen anthropogenen Quellen im 21. Jahrhundert. Dies ist daher eine provisorische Prognose, aber sie ist konsistenter mit dem UAH-Datensatz als mit den fragwürdigen Datensätzen des Adjustozäns.

Das Ausmaß der Manipulation in manchen Datensätzen ist enorm. Eine andere erhellende Graphik vom nimmermüden Professor Humlum folgt hier. Er publiziert eine große Vielfalt von Graphiken zur globalen Erwärmung in seinem öffentlich zugänglichen monatlichen Report bei climate4you.com:

Mann-gemachte globale Erwärmung: wie GISS die offensichtliche Erwärmung um über die Hälfte verstärkte

Das GISS, dessen Datensatz inzwischen derartig politisiert ist, dass er vollkommen wertlos ist, sMeared die Daten über einen Zeitraum von weniger als sieben Jahren, nämlich von März 2010 bis Dezember 2017, und zwar so erheblich, dass die zutage tretende Erwärmungsrate über das 20. Jahrhundert über ein halb mal so groß ist. Die größte Änderung erfolgte im März 2013, zu einem Zeitpunkt also, an dem der lang dauernde Stillstand bereits zu einer permanenten Peinlichkeit der offiziellen Klimatologie geworden war. Nur einen Monat zuvor hat war jetzt in Ungnade gefallene Chef des IPCC, der Eisenbahn-Ingenieur Pachauri, einer der ersten Sprecher der offiziellen Klimatologie, welcher die Existenz des Stillstandes einräumte. Das tat er auf einem Vortrag in Melbourne, worüber in der Folge nur in einer einzigen Zeitung berichtet worden war, nämlich The Australian. Diese Zeitung steht schon lange unter Verdacht, weil sie immer wieder beide Seiten der Klimadebatte hat zu Wort kommen lässt.

Faszinierend ist, dass selbst nach den erheblichen Datenmanipulationen zum Ende des Stillstandes in vier der fünf langzeitlichen Datensätze, und obwohl der Trend in allen Datensätzen aufgrund des starken El Nino vor ein paar Jahren ebenfalls gestiegen ist, die Original-Prophezeiungen des IPCC aus dem Jahr 1990, welche die Angst erzeugen sollten, ungeheuer exzessiv bleiben.

Inzwischen hat jedoch das IPCC selbst erkannt, wie absurd seine Original-Prophezeiungen waren. Im 5. Zustandsbericht 2013 wurde die Abhängigkeit von Modellen erstmals aufgegeben und ersetzt durch etwas, das als „Experten-Beurteilung“ ihrer überhitzten Resultate bezeichnet wird. Außerdem wurde die mittelfristige Prognose halbiert. Damit inkonsistent hat man jedoch sorgfältig dessen Gleichgewichts-Prophezeiung – 1,5 bis 4,5 K pro CO2-Verdoppelung – beschämend unverändert gelassen.

Die unzähligen Apologeten des IPCC in den Marxstream-Medien haben eine Parteilinie entwickelt, um das erbärmliche prognostische Scheitern der IPCC-Prophezeiungen aus dem Jahr 1990 hinweg zu erklären. Ja sie verstiegen sich absolut fälschlich sogar dazu zu versuchen, dass alles „noch viel, viel schlimmer sei als wir jemals gedacht haben“.

Eine seiner allgemeinsten Entschuldigungen, vorgebracht im Büßer-Tonfall, nämlich die monotone Darbietung und das Zombie-artige Auftreten der unglaublich Gehirngewaschenen ist, dass dank des UN Framework Convention on Global Government Climate Change die CO2-Reduktion so eindrucksvoll war, dass die Emissionen jetzt deutlich unter dem Business-as-Usual-Szenario im IPCC-Bericht 1990 liegen und viel näher dem weniger extremistischen Szenario B.

Mit Verlaub – nein! Obwohl die Aufzeichnung der CO2-Emissionen in das Adjustozän hineingezogen worden ist dergestalt, dass jetzt so getan wird, als ob – per impossibile – die globalen CO2-Emissionen während der letzten fünf Jahre unverändert geblieben waren, zeigt der jüngste Bericht zu diesen Emissionen diese als fast konsistent mit dem usiness-as-Usual-Szenario des IPCC (1990).

Globale CO2-Emissionen folgen dem Business-as-Usual-Szenario A des IPCC.

Als man mit dieser lügnerischen Ausrede gescheitert war, entwickelte die Partei eine interessante Rückzugslinie mit der Auswirkung, dass obwohl die Emissionen nicht dem IPCC-Szenario B folgten, die resultierenden Strahlungsantriebe viel geringer sind als vom IPCC 1990 prophezeit. Und das sind sie auch. Was jedoch die Parteilinie sorgfältig versteckt, ist der Grund für diesen Umstand.

Die Partei erkannte, dass deren Schätzungen des kumulativen anthropogenen Gesamt-Strahlungsantriebs aus allen Quellen hoch genug waren in Relation zur beobachteten Erwärmung, dass sich eine weit geringere Gleichgewichts-Sensitivität auf Strahlungsantriebe zeigte als ursprünglich verfügt. Dem zufolge reflektierte der 3. Zustandsbericht ordnungsgemäß die adjustierte Parteilinie, indem magische Windungen sowie künstliche und erhebliche Reduktion des gesamt-anthropogenen Antriebs damit verwoben wurden. Man führte nämlich etwas ein, was Prof. Lindzen unverblümt „den Aerosol-Frisier-Faktor“ nannte. Der Einfluss dieses schädlichen Frisier-Faktors wird im 5. Zustandsbericht deutlich:

Fudge, mudge, kludge [etwa: frisieren, schummeln, flickschustern]: Der Aerosol-Frisier-Faktor reduziert den menschengemachten Strahlungseinfluss erheblich und erhöht fälschlich die Klima-Sensitivität (IPCC 2013, Abb. SPM.5)

Die IPCC-Liste der Strahlungsantriebe im Vergleich mit der vorindustriellen Ära zeigt einen gesamt-anthropogenen Strahlungsantrieb von 2,29 W/m² relativ zum Jahr 1750. Allerdings wäre diese Gesamtzahl noch deutlich höher ohne die beiden Aerosol-Frisier-Faktoren, nämlich insgesamt 0,82 W/m². Falls zwei Drittel dieser Gesamtzahl zurück hinzugefügt werden, wie es sein sollte, weil anthropogene Aerosole sich in nichts von natürlichen Aerosolen in den Sahara-Winden unterscheiden, welche bis nach Schottland verfrachtet werden können, wird der gesamt-anthropogene Faktor zu 2,85 W/m². Der Unterschied zur offiziellen Klima-Sensitivität sieht so aus:

Wie der Aerosol-Frisier-Faktor künstlich den Systemerhaltungs-Faktor A erhöht.

Im linken Bild ist die Referenz-Sensitivität (also die anthropogene Temperaturänderung zwischen 1850 und 2010 vor Berücksichtigung von Rückkopplungen) das Produkt des Planck-Parameters 0,3 K pro W/m² und der mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen Strahlungsantriebs in der industriellen Ära 2011: d. h. 0,68 K.

Die Gleichgewichts-Sensitivität ist etwas komplexer, weil es die offizielle Klimatologie liebt sich vorzustellen (vermutlich ohne jede Rechtfertigung), dass bislang noch nicht die ganze anthropogene Erwärmung wirksam geworden ist. Daher haben wir für die Mittelfrist-Schätzung bei Smith (2015) des Gesamt-Strahlungs-Ungleichgewichtes von 0,6 W/m² zugelassen. Dies konvertiert die gemessene Erwärmung von 0,75 K von 1850 bis 2011 zu einer Gleichgewichts-Erwärmung von 1,02 K.

Der Systemerhaltungs-Faktor verwendet den Delta-Wert der Systemerhaltungs-Gleichung, welche derzeit universal bei der offiziellen Klimatologie ist. Der Faktor ist das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, d. h. 1,5. Da die Referenz-Sensitivität bei CO2-Verdoppelung, abgeleitet aus den CMIP5-Modellen bei Andrews (2012) 1,04 K beträgt, beläuft sich die Charney-Sensitivität auf 1,5 X 1,04 oder 1,55 K.

Im rechten Bild wurden etwas über zwei Drittel des Aerosol-Frisier-Faktors von 0,82 K dem gesamt-anthropogenen Antrieb zurück hinzugefügt, worauf sich 2,85 K ergaben. Warum zurück addiert? Nun, ohne zu viele Geheimnisse zu verraten, die offizielle Klimatologie hat angefangen zu begreifen, dass der Aerosol-Frisier-Faktor viel, viel zu hoch ist. Er ist so unrealistisch, dass er Zweifel weckt hinsichtlich der Glaubwürdigkeit der übrigen Tabelle mit den Antrieben in IPCC 1990 (Abb. SPM.5). Man erwarte signifikante Änderungen im nächsten IPCC-Zustandsbericht, welcher etwa 2020 geplant ist.

Verwendet man den korrigierten Wert des gesamt-anthropogenen Antriebs, fällt der Systemerhaltungs-Faktor auf 1,13. Das führt zu einer Charney-Sensitivität von 1,13 X 1,04 oder 1,17 K.

Wir wollen noch einen anderen Weg einschlagen, das zu testen, und zwar unter Verwendung der Absolutwert-Gleichung, welche durch die fälschlich restriktive Definition einer „Temperatur-Rückkopplung“ der offiziellen Klimatologie ausgeschlossen wird:

Der System-Erhaltungs-Faktor 2011: (Links) ohne und (rechts) mit Frisier-Faktor-Korrektur

Hier zeigt sich ein bedeutender Vorteil, wenn man die Systemerhaltungs-Gleichung mit Absolutwerten anwendet, welche von der offiziellen Klimatologie verworfen wird. Änderungen der Delta-Werte führen zu großen Änderungen des Systemerhaltungs-Faktors, aber nur sehr geringe Änderungen, wenn er mittels der Absolutwert-Gleichung abgeleitet wird. Tatsächlich sind die Systemerhaltungs-Faktoren der Jahre 1850 und 2011, wenn mit der Absolutwert-Gleichung abgeleitet, nahezu identisch mit 1,13. Dies zeigt, dass unter den heutigen Bedingungen Nicht-Linearitäten in Rückkopplungen nur sehr geringen Einfluss auf den Systemerhaltungs-Faktor haben.

Unter dem Strich: Kein noch so großer Wutanfall ob des Temperaturverlaufs kann die Tatsache verändern, dass der Systemerhaltungs-Faktor und damit auch die Gleichgewichts-Temperaturen gering sind – egal ob man die Delta-Wert-Gleichung heranzieht (Charney-Sensitivität 1,55 K) oder die Absolutwert-Gleichung (Charney-Sensitivität 1,17 K).

Link: https://wattsupwiththat.com/2018/08/21/temperature-tampering-temper-tantrums/

Übersetzt von Chris Frey EIKE




Zwischenbilanz: Was ist aus den Thesen der kalten Sonne geworden?

1) KLIMAWIRKUNG DER SONNE: Im Buch wird eine Vielzahl von gut dokumentierten Fallstudien aufgearbeitet, die eine deutliche Klimawirkung der Sonne auf Temperatur und Niederschläge beschreiben. Dies steht im krassen Gegensatz zum IPCC-Ansatz in den Klimamodellen, der einen fast vernachlässigbar geringen Einfluss der Sonne auf das Klima in seinen Berechnungen zugrundelegt. Ganz offensichtlich klaffen hier die rekonstruierte Klimageschichte und theoretische Klimamodellwelt krass auseinander. Seit Erscheinen des Buches ist eine große Anzahl weiterer begutachteter Fachpublikationen erschienen, die eine starke solare Beeinflussung des Klimas feststellten. Übersichten auf Google Scholar, Scopus, Maarten Blaauw. Die im Buch identifizierte Diskrepanz besteht weiterhin und gefährdet die Akzeptanz der Klimamodellierungsergebnisse.

2) OZEANZYKLEN: Im Buch wird der systematische Einfluss der 60-jährigen atlantischen und pazifischen Ozeanzyklen (AMO, NAO, PDO) auf das Klima beschrieben und in den Kontext der globalen Temperaturentwicklung der letzten 150 Jahre gesetzt. Während führende Modellierer sie zur Zeit der Buchveröffentlichung noch als unwichtiges Rauschen abtaten, haben die Ozeanzyklen in den letzten Jahren einen regelrechten Durchbruch in der Fachwelt erlebt. Die kühlenden und wärmenden Halbphasen der Ozeanzyklen sind nun anerkannte Klimafaktoren und werden jetzt sogar in vielen Mittelfristprognosen berücksichtigt (siehe z.B. Tung & Zhou 2013, Gervais 2016, Seidov et al. 2017). Die gebremste Erwärmung der letzten anderthalb Jahrzehnte ist Teil dieser Zyklik.

3) MITTELALTERLICHE WÄRMEPERIODE: Vor 1000 Jahren ereignete sich in vielen Teilen der Erde eine natürliche Wärmephase, die mit einer erhöhten Sonnenaktivität zusammenfiel. Klimamodelle können die Warmphase nicht reproduzieren, was nicht verwundert, denn der einzige aktive Wärmetreiber in den Modellen – das CO2 – war weitgehend konstant in den letzten 10.000 Jahren der vorindustriellen Zeit. Um verlässliche Zukunftsprognosen abzugeben, müssen Modelle jedoch zwingend die bekannte Vergangenheit abbilden können, ansonsten ist auch die Qualität ihrer Klimaprognosen fraglich. Der IPCC hat den im Buch bemängelten schwerwiegenden Modellierungsfehlschlag mittlerweile in seinem neuesten Klimazustandsbericht eingeräumt, wenn auch versteckt auf Seite 414 in Kapitel 5.3.5 (Arbeitsgruppe 1). Eine Erwähnung des schweren Mangels in der Zusammenfassung für Politiker unterblieb jedoch, so dass die Erkenntnis der großen Öffentlichkeit verborgen blieb. Die mangelnde Transparenz seitens des IPCC im Umgang mit unbequemen Resultaten verwundert ein ums andere Mal.

4) AEROSOL-JOKER: Im Buch wird die fragwürdige „Joker-Rolle“ der Schwefeldioxid-Schwebstoffe (SO2) in den Klimamodellen kritisiert. Als vor einigen Jahren bekannt wurde, dass der Ruß viel stärker wärmt als vormals angenommen, wurde die plötzlich überschüssige Wärme in den Modellen einfach über das kühlende SO2 aufgefangen. Allein diese Maßnahme erlaubte es den Modellierern, die angesetzte starke Erwärmungswirkung des CO2 beizubehalten. Im anderen Fall hätten die in den letzten 150 Jahren beobachteten Erwärmungsraten die simulierten Raten weit unterschritten und die CO2-Klimasensitivität hätte entsprechend erniedrigt werden müssen. In den vergangenen Jahren hat sich nun jedoch gezeigt, dass die Kühlwirkung der SO2-Aerosole signifikant überschätzt wurde, was in etlichen Fachpublikationen aus dem Bereich der Aerosolforscher deutlich belegt wurde (z.B. Stevens 2015, Malavelle et al. 2017). Der schnell aus dem Ärmel gezauberte Aerosol-Joker ist damit hinfällig, wie im Buch bereits befürchtet.

5) CO2-KLIMASENSITIVITÄT: Hinsichtlich der CO2-Klimasensitivität werden Im Buch Szenarien am unteren Rand der IPCC-Spanne von 1,5-4,5°C pro CO2-Verdopplung diskutiert. Vormals hatte der IPCC einen besten Schätzwert von 3,0°C abgegeben. Eine ganze Reihe von Fachpublikationen bestätigt nun, dass der IPCC die CO2-Klimasensitivität vermutlich lange Jahre lang stark überschätzt hatte. Die Hamburger Stevens-Gruppeerrechnet jetzt eine reduzierte Klimasensitivität von nur noch 2,21°C pro CO2-Verdopplung. Andere Arbeiten aus der jüngsten Zeit gehen von ähnlich niedrigen Werten aus, darunter Masters (2014) mit 2,2°C, von der Heydt et al. 2014 mit 2,26°C; Loehle 2014 mit 1,99°C, Skeie et al. 2014 mit 1,8°C, Lewis & Curry 2015 mit 1,64°C und Spencer & Braswell 2014 mit 1,3°C.

6) ENERGIEWENDE: Im Buch wird davor gewarnt, die deutsche Energiewende zu überstürzen, da dies zu einem enormen Kostenrisiko führen würde. Sechs Jahre nach Veröffentlichung dieser Kritik ist nun genau dies eingetreten und gefährdet ernsthaft die Zukunft der schlecht geplanten Energiewende. Viele Medien und Experten teilen jetzt die Sorge (z.B. Daniel Wetzel in der Welt: Kurzschluss bei der Energiewende; Justus Haucap in der FAZ: Deutschlands teurer Energie-Irrweg).

7) BIOTREIBSTOFFE: Im Buch wurde davor gewarnt, dass die Umweltbilanz von Biostreibstoffen weniger gut ausfällt als lange behauptet. In den letzten Jahren wurde dies nun bestätigt und es wurde die traurige Gewissheit erlangt, dass Biostreibstoffe nahezu kein CO2 einsparen und zudem zur Umweltzerstörung beitragen (z.B. Sterman et al. 2018, Gnansounou 2018).

 

Für eine weitere Prognose aus dem Buch „Die kalte Sonne“ ist es für ein Fazit noch zu früh. Lüning und Vahrenholt rechnen im Buch für die kommenden Jahre mit einer leichten globalen Abkühlung, da sowohl Sonnenaktivität und Ozeanzyklen in eine kühlende Phase eintreten. Da die derzeit erlahmende Sonne aufgrund der trägen Ozeane erst mit mehrjähriger Verzögerung klimatische Wirkung zeigt und vieljährige Mittelwerte zu betrachten sind, wird diese Prognose erst in einigen Jahren überprüfbar.

Zwischenzeitlich nutzten Klimaaktivistenkreise den kurzzfristigen Anstieg der globalen Temperaturen im Rahmen des El Nino 2015/16 und interpretierten dies als angebliches Indiz für das Scheitern der Prognose. Mittlerweile (Stand 2018) sind die Temperaturen jedoch wieder auf das allgemeine Temperaturplateau zurückgefallen, dass seit 2000 herrscht. Die auf Wikipedia verbreitete Graphik wurde indessen auf dem Höhepunkt des El Nino 2016 eingefroren, so dass die enorme nachfolgende Abkühlung dem Wikipdia-Leser verborgen bleibt. Aufforderungen zur Aktualisierung der Graphik blieben ergebnislos, ebenso wie die Aufforderung zur Korrektur und Ergänzung vieler anderer Details im Wikipedia-Artikel zu Sebastian Lüning. Wie in vielen politisch sensiblen Bereichen sind leider auch die Seiten zum Klimawandel auf Wikipedia fest in Aktivistenhand. Die reale globale Temperaturentwicklung laut RSS-Satellitendaten sieht um einiges wenger dramatisch aus als in der Wikipedia-Graphik suggeriert.

Abbildung: Globale Temperaturentwicklung (Anomalien in °C) laut UAH Satellitendaten (via WoodforTrees).

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Windindustrie räumt ein: massives neues Projekt wird ohne Subventionen scheitern

American Electric Power AEP verkündete soeben, dass es Pläne für ein massives Windpark-Projekt im Oklahoma Panhandle gestrichen hat, weil das Unternehmen nicht genehmigt wird, bevor großzügige Subventionen der Regierung auslaufen. Die Entscheidung von AEP ist besonders bemerkenswert, weil die US Energy Information Administration EIA dokumentiert, dass der Oklahoma Panhandle eine der besten Plätze des Landes ist zur Erzeugung von Windenergie. Falls nämlich die Erzeugung von Windenergie dort unsinnig ist, ist das irgendwo anders erst recht der Fall.

[Hier soll eigentlich eine Karte der U.S. Energy Information Administration stehen, aber diese fehlt auch im Original. Stattdessen steht hier eine Karte mit den US-Bundesstaaten {Quelle}. Was mit „Oklahoma Panhandle“ {Pfannengriff} gemeint ist, dürfte ziemlich eindeutig sein. Anm. d. Übers.]

Die [auch im Original fehlende] Karte illustriert, wie geeignet der Oklahoma Panhandle für die Erzeugung von Windenergie im Vergleich zu anderen Gebieten ist. Das gilt vor allem im Vergleich zu Vermont, Ohio und dem nordöstlichen Colorado, wo Windkraft-Befürworter neue Projekte anschieben und behaupten, dass Windenergie ökonomisch Sinn macht.

Das Oklahoma-Projekt mit der Bezeichnung „Wind Catcher“ [etwa: Wind-Fänger] würde die US-Staaten Arkansas, Louisiana, Oklahoma und Texas mit Windenergie versorgen. Wind Catcher würde den Verbrauchern Geld sparen, aber die [zuständige Behörde] Texas Public Utilities Commission (PUC) ist nicht überzeugt. Als Folge davon hat es die PUC abgelehnt, Wind Catcher rasch zu genehmigen. Darauf hat AEP seine Pläne gestrichen, weil die Entscheidung der PUC bedeutet, dass AEP den Windpark nicht errichten kann, bevor bestehende öffentliche Subventionen der Steuerzahler auslaufen. Ohne diese Subventionen würde sich das Projekt nicht rechnen, selbst wenn PUC das Projekt eventuell irgendwann doch genehmigen würde.

„Ich glaube einfach nicht, dass es die Vorteile für die Stromzahler wirklich gibt“, sagte Kommissionsmitglied DeAnn Walker dem Wall Street Journal (hier). „Die angeblichen Vorteile basieren auf einer Fülle von fragwürdigen Vermutungen“.

„Die AEP sagte, dass sie den Stecker aus dem Projekt zieht, teilweise wegen der schleppenden offiziellen Genehmigungsverfahren. Man wäre nicht mehr in der Lage, die ganzen Vorteile öffentlicher Steuernachlässe in Anspruch zu nehmen, welche das Projekt ökonomisch attraktiver machen“, erklärte das Wall Street Journal.

Unter dem Strich: Die Windindustrie höchstselbst räumt ein, dass sie Windenergie nicht in ökonomischer Hinsicht erzeugen kann, selbst nicht in einer der besten Regionen des Landes, ohne großzügige Subventionen der Steuerzahler.

[Hervorhebung vom Übersetzer]

Link: http://www.cfact.org/2018/08/08/wind-industry-admits-massive-project-will-fail-without-subsidies/

Übersetzt von Chris Frey EIKE




Der Kampf gegen die globale Ergrünung – Teil 3

Schlechtes hinsichtlich Globaler Ergrünung: (zitiert aus Zimmers Artikel):

1. Mehr Photosynthese bedeutet nicht mehr Nahrungsmittel.

2. Zusätzliches Kohlendioxid kann Pflanzen weniger nahrhaft machen.

3. Mehr Pflanzen verhindern nicht den Klimawandel.

4. Globale Ergrünung wird nicht ewig dauern

Im Teil 1 haben wir die Frage nach der Relation zwischen gesteigerter Photosynthese und Nahrungsmittel-Erzeugung beleuchtet (Nr. 1 bei Zimmer). Im 2. Teil ging es um die Behauptung, dass „mehr Kohlendioxid die Pflanzen weniger nährstoffreich machen kann“.

Schauen wir jetzt auf Behauptung Nr. 3: „Mehr Pflanzen werden den Klimawandel nicht verhindern“

Zunächst wieder Zimmer und Campbell:

Es sind nicht nur Erdbeeren und andere Nutzpflanzen, die zusätzliches Kohlendioxid aufnehmen. Das tun auch Wälder, Prärien und andere natürliche Ökosysteme auf der Welt. Wenn Wissenschaftler sowohl die zusätzliche Photosynthese als auch die Atmung berücksichtigen, schätzen sie, dass Pflanzen über ein Viertel des von uns emittierten Kohlendioxids aus der Atmosphäre entfernen. „Das entspricht etwa den Emissionen Chinas. Und China ist der stärkste globale Verschmutzer“, sagt Dr. Campbell. „Sogar noch bemerkenswerter ist, dass die Pflanzen selbst dann noch die gleiche Menge CO2 aus der Luft geholt haben, nachdem unsere Emissionen explodiert sind. Jedes Jahr errichten wir mehr Kraftwerke, und jedes Jahr nehmen die Pflanzen mehr CO2 auf“.

Aber das ist kein Grund zum Feiern. Es ist etwa so, als ob man sagt, dass die Chemotherapie das Wachstum Ihres Tumors um 25% verlangsamt. Trotz der globalen Ergrünung ist das CO2-Niveau während der letzten zwei Jahrhunderte gestiegen, und zwar auf ein Niveau, wie es auf der Erde seit Millionen Jahren nicht der Fall war. Und das von uns der Atmosphäre zugefügte CO2 hat bereits weltweit erhebliche Auswirkungen. Die sechs wärmsten Jahre jemals waren alle nach 2010 aufgetreten. Das Wetter ist bereits extremer geworden. Der Meeresspiegel ist gestiegen. Die Ozeane versauern.

Falls die Pflanzen auch weiterhin ein Viertel unseres CO2 aufnehmen, kann man erwarten, dass sich all diese Trends verstärken. Mit anderen Worten, falls die globale Ergrünung uns jetzt nicht rettet, können wir uns auch in Zukunft nicht darauf verlassen, dass sie uns rettet.

Schauen wir mal auf die Logik dessen, was Zimmer und Campbell sagen. Sie akzeptieren ohne weitere Bemerkungen dass „Pflanzen ein Viertel des von uns emittierten Kohlendioxids aus der Atmosphäre entfernen. Das entspricht etwa den Emissionen Chinas. Und China ist der stärkste globale Verschmutzer. Sogar noch bemerkenswerter ist, dass die Pflanzen selbst dann noch die gleiche Menge CO2 aus der Luft geholt haben, nachdem unsere Emissionen explodiert sind. Jedes Jahr errichten wir mehr Kraftwerke, und jedes Jahr nehmen die Pflanzen mehr CO2 auf“.

Nun, falls irgendein anderer Prozess volle 25% allen von uns jedes Jahr emittierten CO2 aus der Atmosphäre entfernen würde, Jahr für Jahr, würde das als heroisch gefeiert werden. Regierungen und Laboratorien entwerfen Verfahren, ziemlich geringe Mengen CO2 aus der Atmosphäre zu entfernen oder dafür zu sorgen, dass es gar nicht erst emittiert wird. Darunter sind hier bei WUWT vorgestellte Pläne, CO2 in Gestein zu konvertieren, es in Treibstoffen einzuschließen wie Ammoniak oder die Speicherung in Höhlen und Ölbohrlöchern. Man stelle sich mal für einen Moment vor, dass China seine CO2-Emissionen über Nacht auf Null reduzieren würde. Genau das macht die globale Ergrünung derzeit – kostenlos. Aber anstatt diesem biologisch ausgelösten Geoengineering zu applaudieren, bietet Zimmer uns dies (und ich zitiere ihn jetzt nur widerwillig):

Aber das ist kein Grund zum Feiern. Es ist so, als ob man sagt, dass die Chemotherapie das Wachstum Ihres Tumors um 25% verlangsamt“.

(Ignorieren wir jetzt einmal die grobe Gefühllosigkeit dieser Feststellung – wie schmerzhaft muss es für die Krebs-Bekämpfer oder die Angehörigen von Krebskranken sein zu hören, dass das Wachstum ihres Tumors verlangsamt worden ist. Der Vergleich von CO2-Emissionen mit Krebs ist selbst ein bösartiges Stück eines intensiven Propaganda-Hypes).

Die Reduktion von CO2-Emissionen in der Größenordnung der „Emissionen Chinas“ ist „kein Grund zum Feiern“? Offensichtlich sind für Zimmer und Campbell alle Ziele des Paris-Abkommens, so sie denn überhaupt erreicht werden würden, ebenfalls „kein Grund zum Feiern“. Schließlich wird die Zunahme des atmosphärischen CO2 nur verlangsamt, aber es wird nicht vollständig eliminiert.

Es ist schwierig, dieser Beweisführung zu folgen … es scheint keine Beweisführung zu sein, sondern eher eine Nicht-Beweisführung. Die Mehrheit der sich mit dem atmosphärischen CO2 befassenden wissenschaftlichen Welt kämpft für eine Reduktion der Emissionen und dafür, wenn möglich, CO2 aus der Atmosphäre zu entfernen, um die Konzentrationen desselben zu verringern, welche das IPCC als gefährlich gebrandmarkt hat. Und doch versucht Zimmer, wenngleich vergeblich, uns davon zu überzeugen, dass eine kostenlose und keinerlei Bemühungen erfordernde Methode, so viel CO2 aus der Atmosphäre zu entfernen wie China jedes Jahr emittiert, „kein Grund zum Feiern“ ist.

Seine Haltung lässt sich einfach zusammenfassen: „Es hat keinen Nutzen, CO2 aus der Atmosphäre zu entfernen, solange man nicht das Anwachsen der Konzentration vollkommen stoppen kann“. Damit hat er das gesamte Paris-Abkommen in die Tonne getreten.

Welche Auswirkungen hat denn nun die Globale Ergrünung auf atmosphärische CO2-Konzentrationen? Zimmer und Campbell haben einfach ohne es zu begründen festgestellt, dass die Globale Ergrünung jährlich etwa 10 Milliarden Tonnen CO2 aus der Atmosphäre holt. Nicht nur das, sondern sie holt jedes Jahr mehr heraus, wenn sie weiter zunimmt.

Wirklich? Man betrachte die folgende Graphik:

Diese Graphik von UCSD/Scripps repräsentiert die „Atmung“ der Erde – im Nordfrühling und -sommer entfernen wachsende Pflanzen das CO2 schneller aus der Atmosphäre als wir emittieren, und die monatlichen Werte sinken. Mit der Verlangsamung des Wachstums im Herbst und Winter nehmen die Pflanzen nicht mehr so viel CO2 auf und die Emissionen steigen. Die Südhemisphäre wirkt sich dabei wegen der fehlenden Landmassen kaum aus. Wir sehen also, dass die globale Ergrünung Jahr für Jahr mehr ppm aufnimmt – der jahreszeitliche Unterschied betrug in den sechziger Jahren 6,2 ppm, 2018 ist er auf 9 ppm gestiegen.

Und dann das hier:

Das Andere, was offensichtlich zutage tritt ist, dass die CO2-Konzentrationen (in ppm) weiterhin steigen, setzen doch moderne Gesellschaften (und die Natur) stärkere CO2-Emissionen fort als die gestiegene Photosynthese aufnehmen kann. Seit dem Jahr 2000 betrug laut der ersten Graphik oben die jährliche Zunahme in ppm der jahreszeitlichen CO2-Aufnahme etwa 0,125 ppm pro Jahr – oder ein Achtel eines ppm pro Jahr. In acht Jahren summiert sich das auf 1 ppm. Aber CO2 nimmt mit einer mittleren Rate (2010 bis 2017) von 2,54 ppm pro Jahr zu. Die globale Ergrünung wird mit diesen Raten nicht mithalten, sie wird nicht aufhören und nicht die Zunahme atmosphärischer CO2-Konzentrationen allein umkehren.

In dieser Hinsicht haben Zimmer und Campbell recht:

Die globale Ergrünung allein wird den Anstieg des atmosphärischen CO2 nicht stoppen.

Jetzt, da wir eine gute Handhabe bzgl. der Fakten besitzen, wollen wir noch einmal beleuchten, was Zimmer zu widerlegen versucht hat mit seiner merkwürdigen Behauptung, dass die „globale Ergrünung schrecklich ist, weil mehr Pflanzen nicht den Klimawandel verhindern werden“.

Hat irgendjemand irgendwann behauptet, dass die globale Ergrünung den Klimawandel verhindert?

In Zimmers Artikel in der NYT sagt er:

Klimawandel-Leugner waren schnell dabei, die Forschung von Dr. Campbell zu begrüßen als Beweis, dass gesteigerter Kohlendioxid-Gehalt die Welt zu einem besseren Ort macht.

Die so genannte Kohlenstoff-Verschmutzung hat viel mehr dazu beigetragen, grüne Pflanzen des Planeten zunehmen zu lassen und zu kräftigen als alle Klimapolitik aller Regierungen der Welt zusammen. Dies erklärte das Competitive Enterprise Institute kurz nach Erscheinen der Studie.

Die besten Erkenntnisse sind positiv: CO2 lässt Ernteerträge zunehmen und macht die Erde grüner“, schrieb Joseph Bast, Direktor des Heartland Institute im Oktober 2017 in einer E-Mail.

Im Juni fungierte Bast als Mitautor eines Meinungsartikels im Wall Street Journal, in welchem er die Arbeit von Dr. Campbell als Beweis der Vorteile fossiler Treibstoffe anführte. Unsere Freisetzung von CO2 trägt „zur Ergrünung der Erde“ bei, schrieb er.

Zimmer bemüht hier einen journalistischen Trick – er versucht mit Händen und Füßen etwas zu widerlegen, was niemand jemals behauptet hat – niemand hat jemals in die Welt gesetzt, dass die globale Ergrünung den Klimawandel stoppen würde.

Wie viele Dinge kann man nennen, die gut sind und den Klimawandel nicht stoppen? Weltfrieden, ein AIDS-Impfstoff, Ende der Armut, eine unverzerrt berichtende Presse. Die Liste ist ziemlich lang. Nichts davon wäre schrecklich nur weil es nicht den Klimawandel stoppt, und das tut auch die globale Ergrünung nicht.

Es ist nicht so, dass Zimmer und Campbell keinen validen Punkt haben – den haben sie, aber sie benennen ihn nicht und gebrauchen ihn nicht – stattdessen machen sie etwas Unlogisches und versuchen eine Falschaussage als Wahrheit zu etablieren.

Es wäre einfach gewesen, wenn sie das aus ihrer Sicht gesagt hätten, während die globale Ergrünung ein positiver Nebenaspekt der steigenden CO2-Konzentrationen ist. Ihre Bedenken über die potentiellen negativen Auswirkungen von globaler Erwärmung/Klimawandel verführte sie zu dem Glauben, dass ein steigender atmosphärischer CO2-Gehalt im Endeffekt etwas Negatives ist, etwas Schlimmes, das ihrer eigenartigen Wortwahl nach „schrecklich“ ist. Wir könnten das akzeptieren – sie dürfen einen Standpunkt haben und diesen begründend zu vertreten. Aber Zimmer scheint sich erlaubt zu haben, von einer emotionsgeladenen Befürwortung davon gespült zu werden – die Notwendigkeit, den „Klimawandel“ zu bekämpfen, koste es, was es wolle – und seinen gesunden Menschenverstand verloren zu haben, sein journalistisches Ethos und meine Achtung vor ihm als Wissenschaftsjournalist verloren zu haben. Hätte er auf den Meinungsseiten der NYT geschrieben, wie Andy Revkin es getan hat, hätte er mit seiner Art der Klimawandel-Befürwortung davon kommen können – aber eine persönliche Meinung als wissenschaftliches Faktum darzustellen gehört nicht in die Wissenschafts-Sektion irgendeiner Zeitung.

Er hätte niemals versuchen dürfen, uns davon zu überzeugen, dass die „globale Ergrünung schrecklich ist“ – das ist sie nicht – GLOBALE ERGRÜNUNG IST WUNDERBAR!

———————————-

Kommentar des Autors:

Der Abstieg von Carl Zimmer in irrationale Befürwortung hat mich traurig gemacht. Er ist eigentlich ein kluger Kerl und schreibt normalerweise guten Wissenschaftsjournalismus. Man muss mental sehr stark sein, wenn man auf dem ziemlich engen Pfad guter Wissenschaft, rationalem und kritischem denken sowie logischen Argumenten bleiben will, wenn man sich mit einem Thema befasst, für das man Leidenschaft entwickelt. Die Fähigkeit, das zu tun, ist was wir bei Wissenschaftlern voraussetzen. Aber sie sind Menschen wie wir, und immer wieder weisen sie uns einen falschen Weg.

Quick Links:

Zimmer’s NY Times article “Global Greening….it’s Terrible”

The Competitive Enterprise Institute declared shortly after the study came out

EE News: Skeptics suspicious of Pruitt plan to press him on red team

October 2017 Heartland email [illegally?] obtained by EE News [pdf]

Our unleashing of carbon dioxide contributes “to the greening of the Earth,”

# # # # #

Link: https://wattsupwiththat.com/2018/08/17/the-fight-against-global-greening-part-3/

Übersetzt von Chris Frey EIKE




Die globale Klimaverschwörung im ARD-MONITOR vom 16.8.2018

Die Sendung befasst sich mit Wetterextremen und leitet daraus salopp Klimaveränderungen ab. Ein heißer und ungewöhnlich trockener Sommer genügt. Wirklich? Die Wissenschaft versteht unter „Klimawandel“ maßgebende Wetteränderungen über mindestens 30 Jahre. Davon lässt sich MONITOR freilich nicht beirren. Zeuge von MONITOR ist der „renommierteste Klimaforscher unserer Zeit“, Prof. Hans-Joachim Schellnhuber, der kleinliche Kritiker an einer globalen Klimakatastrophe als „Profilneurotiker“ (O-Ton MONITOR) diffamiert.

Ist also der in der internationalen Fachwelt wirklich renommierteste Klimaforscher, Prof. Richard Lindzen vom MIT (hier), ein Profilneurotiker? Lindzen war Initiator einer Petition an Donald Trump, die empfahl, aus dem Pariser Klimaabkommen auszusteigen – Petition und ihre Unterzeichner (hier). Alle wissenschaftlich ausgewiesenen Klimaforscher, inklusive ihrer Institute oder Universitäten sind dort namentlich aufgeführt – die Liste liest sich wie ein Who is Who der US-Klimaforschung. Sind alle diese Klimaexperten Profilneurotiker?

Sucht man in Google Scholar (hier sind alle wissenschaftlichen Veröffentlichungen dokumentiert) nach Fachstudien von Schellnhuber, entstehen Zweifel an der MONITOR-Laudatio über Schellnhuber. Als Erstautor in rein wissenschaftlichen Fachaufsätzen ohne politischen Bezug ist Schellnhuber ausgesprochen selten aufzufinden, seine Fachaufsätze sind  eher allgemeiner und ins Politische gehend, die harte Arbeit der physikalischen Detailforschung scheint ihm weniger zu liegen. Mit bahnbrechenden neuen Forschungsergebnissen ist Schellnhuber jedenfalls noch nicht hervorgetreten. Um Missverständnisse zu vermeiden: Der Unterschied zwischen einem echten wissenschaftlichen Renomée unter Fachleuten und der von den deutschen Medien aus welchen Gründen auch immer verliehenen Bezeichnung, ist sorgsam zu beachten.  Wir kommen auf Schellnhuber noch einmal zurück.

Natürlich kommen in MONITOR auch noch andere Experten zu Wort, so beispielsweise der Schweizer Klimaforscher Prof. Reto Knutti. Bei seiner Aufzählung von Hinweisen für einen menschgemachten Klimawandel ist man leicht verwirrt. „Mehr Regen, weniger Regen“, ist seine Aussage im O-Ton MONITOR. Hmmm, mal regnet’s, mal nicht, was ist daran so besonderes, und warum ist diese meteorologische Selbstverständlichkeit als Zeichen des menschgemachten Klimawandels zu werten?

Wissenschaftliche Fakten waren jedenfalls nicht der Schwerpunkt von MONITOR. Es ging um sog. Klimaskeptiker, die sich einem angeblichen wissenschaftlichen Konsens verweigern und zu einer globalweiten Verschwörungspest ausgewachsen seien. Dazu wurde schweres Geschütz aufgefahren. Ein stellvertretendes Beispiel mag genügen: Vor Jahren hat die Erölindustrie kritische Institutionen finanziell unterstützt. Nun nicht mehr. Was macht daraus eine Sympathie einflößende Dame namens Naomi Oreskes aus den USA im Ferninterview von MONITOR? Es werde eben jetzt nur geschickter gemacht, die Gelder flössen immer noch.

Einen Beweis für diese Vermutung blieb die Lady schuldig. Das Nächstliegende, nämlich dass keine Gelder mehr fließen, kam nicht in Betracht. Nun ist es ja so: Ohne Erdölindustrie könnten wir kein Auto fahren, nicht in den Urlaub fliegen etc. Und ohne Kohle gingen bei uns die Lichter aus. Diese Industrien zahlen ihre Steuern wie alle anderen auch, stellen Arbeitsplätze und kleine Kinder fressen sie auch nicht, jedenfalls ist bis jetzt darüber nichts bekannt. Warum werden sie dann von MONITOR im „Reich des Bösen“ verortet? EIKE hätte absolut keine Probleme damit, von der Erdöl- oder Kohleindustrie finanziell unterstützt zu werden. Leider erfolgt dies nicht.

Die MONITOR-Sendung betraf auch mich persönlich. Nicht nur durch einen eingespielten Interview-Ausschnitt, sondern durch das geführte Interview selbst. Es wurde von MONITOR etwa eine Woche vor der Sendung nachgefragt und 2 Tage davor gemäß meinen gestellten Bedingungen in Heidelberg in einem vom WDR gemieteten Konferenzraum durchgeführt. Ich machte zur weiteren Bedingung des Interviews einen eigenen Tonmitschnitt. War nach einigem Hin- und Her in Ordnung. Natürlich war von vornherein klar, dass nicht das ganze Interview von einer knappen Stunde Dauer, sondern nur Ausschnitte in der Sendung gezeigt werden konnten. Was dann tatsächlich kam, lässt allerdings interessante Schlussfolgerungen über MONITOR, seine Redaktion und die Vorgaben des WDR für die Sendung zu.

Hier den vollen Tonmitschnitt zu bringen wäre zu langatmig und langweilig. Meine „Informations-Kompression“ des Interviews ist allerdings eine andere als die des WDR: ich gebe alle Fragen der Interviewerin, Frau Shafagh Laghai, und meine Antworten zumindest dem Sinne nach wieder. Nur sachlich Unwesentliches, Wiederholungen, zu Längliches etc. lasse ich weg, damit die Mitschnittschilderung „verdaulich“ wird. Ich füge ferner meinen Antworten gelegentlich Anmerkungen oder auch Internetlinks hinzu, die durch den Vorsatz „Anmerkung“ und kursive Schrift von Aussagen unterschieden werden. Auf die Existenz dieser Internetquellen wies ich in meinen Interviewantworten stets deutlich hin, hier sind sie nun real vorhanden.

Trotz mehrfachen Insistierens seitens Frau Laghai habe ich nur Antworten zu sachlichen Fragen gegeben, nicht aber über so etwas wie beispielweise „wie hoch ist die Zahl der EIKE-Mitglieder“ und ähnliches mehr. Meine schriftliche Wiedergabe des Interviews enthält die betreffenden Zeiten in Minuten von Interviewbeginn an. Die hier erkennbaren Lücken erklären sich aus den nicht beantworteten Fragen und dem begleitenden Drum-Herum, weil Frau Laghai unbedingt Antworten wünschte, deswegen zeitverbrauchend insistierte aber dennoch keine bekam.

Über die Motive, das Vorgehen und das Ergebnis der Sendung hatte ich keine Illusionen, denn aus Interviews der Süddeutschen Zeitung (hier) und der ZEIT (hier, hier) lag mir bereits ein ausreichender Erfahrungsschatz über den aktuellen deutschen Qualitätsjournalismus vor.

Warum also diesen nutzlosen Unsinn noch einmal über sich ergehen lassen? Ganz einfach: ich erkenne in solchen Interviews interessante Zeugen der aktuellen Entwicklung Deutschlands. Einer Entwicklung, die durch Qualitätsverlust des Journalismus und sinkendes Demokratieverständnis gekennzeichnet ist. Wir haben heute bereits (noch milde) mediale Zustände wie in der ehemaligen DDR. Die herrschende Politik hat über die von ihr in die Beiratsgremien lanzierten, gut dotierten Regierungslobbyisten dem ehemals freien Journalismus konsequent den Garaus gemacht. Nur links/grün ist noch genehm. Ältere erinnern sich noch an den SPIEGEL, der sich nicht scheute, sogar Regierungen zu Fall zu bringen – heute undenkbar. Und das Fernsehen war damals noch vorwiegend ein Medium der Faktenschilderung und nicht des Meinungs-Oktroi.

Im Vorfeld des Interviews rief mich Frau Laghai an. Als Resultat dieses Gesprächs fand ich es im Hinblick auf die von mir geplante und hier vorliegende Dokumentation zielstellend, Frau Laghai folgende Mail mit Unterlagen zu schicken, wobei mir klar war, dass diese Unterlagen allenfalls überflogen und vermutlich nicht verstanden wurden. Eine Chance sollte die Dame wenigstens haben, denn zumindest am Telefon hörte sie scheinbar interessiert zu. Eventuelles Nichtverstehen lag sicher nicht an bösem Willen von Frau Laghai sondern an ihrem fehlenden naturwissenschaftlichen Bildungshintergrung:

——  Mail an Frau Laghai  —————

Sehr geehrte Frau Laghai,

vorbereitende Unterlagen, wie tel. besprochen.

1)  Zum „wissenschaftlichen Konsens“: H. von Storch, D. Bray, http://www.hvonstorch.de/klima/pdf/GKSS_2007_11.pdf  ferner

Kepplinger und Post,

http://www.kepplinger.de/files/Der_Einfluss_der_Medien_auf_die_Klimaforschung.pdf  sowie

https://www.welt.de/welt_print/article1210902/Die-Klimaforscher-sind-sich-laengst-nicht-sicher.html

2) Stimmen gegen das IPCC (Anhang)

3) Fachveröffentlichung „Schellnhuber_PRE-2003-1.pdf“ mit Schellnhuber als Koautor (Anhang). Der relevante Teil ist gelb markiert – in einer weltweiten Untersuchung hat man keine globale Erwärmung gefunden. Dagegen Schellhubers ZEIT-Interview „DOS-Schellnhuber.pdf“ (ebenfalls Anhang). Zwischen beiden sich widersprechenden Aussagen liegen nur 6 Jahre! Dazwischen ist nichts passiert.

4) Um einen Überblick zu erhalten, meine gutachterliche Stellungnahme zur Klimafrage im Landtag von Nordrhein-Westphalen. Sie können diese Stellungnahme auch vom Regierungsserver herunterladen, die angehängte Version hat aber den Vorteil, dass dort alle Quelle direkt verlinkt sind.

Zum Interview draußen im Park: prinzipiell kein Problem, aber praktisch doch, denn leider ist Heidelberg nicht München mit seinen unzähligen Biergärten. Den Schlosspark kann ich nicht empfehlen, der quillt über von Touristen.

freundliche Grüße

——- Mail-Ende ——————-

Die in der Mail genannten Anhänge sind: Schellnhuber_PRE-2003-1, Gutachterliche Stellungnahme Lüdecke 4April2018, (ZEIT-Interview Schellnhuber), Fachstimmen gegen das IPCC.

Video der MONITOR-Sendung vom 18.8.18 im WDR. Übernommen von YouTube

Nun zum Interview:

Beginn der meiner Tonaufzeichnung = Minute ~2.40

Laghai: Erklären Sie bitte, warum Sie die Hypothese vom menschgemachten Klimawandel ablehnen.

Antwort: Weil es keinen eindeutigen wissenschaftlichen Nachweis gibt, dass menschgemachtes CO2 einen maßgebenden Einfluss auf die Klimaentwicklung hat. Es gibt ausreichend viele Fachveröffentlichungen zu dieser Frage – für und wider. Die entscheidende Größe ist die sog. Klimasensitivität. Sie besagt, um wieviel Grad Celsius die globale Mitteltemperatur bei hypothetischer Verdoppelung des CO2 Gehalts der Luft ansteigt. Ihr Zahlenwert ist unbekannt. Heute vermutet ihn die Klimawissenschaft zwischen 1 bi 1,5 °C – also einer unbedenklichen Größe. Sein Wert war in früheren Fachveröffentlichungen schon wesentlich größer und ist in der Fachliteratur mit der Zeit immer kleiner berechnet bzw. eingeschätzt geworden. Wenn es so weitergehen sollte, wird irgendwann das Resultat Null sein. Kurz: Man weiß nicht, ob das menschgemachte CO2 eine maßgebende globale Erwärmung auslöst. Wahrscheinlich ist, dass eine solche Erwärmung allenfalls unmaßgeblich klein ist.

Interviewzeit = Minute ~5

Laghai: Bitte erklären Sie, warum viele Wissenschaftler das Gegenteil von Ihnen aussagen und davor warnen, dass die menschgemachte globale Erwärmung bis 6 °C erreichen könnte.

Antwort: Es gibt diese Wissenschaftler. Man muss aber unterscheiden zwischen dem, was diese Leute wissenschaftlich publizieren und was sie zwar privat, aber gefühlt „ex cathdra“ in den Medien kommunizieren. Man bezeichnet sie oft auch als Wissenschaftsadvokaten. Das wohl bekannteste Beispiel ist Prof. Schellnhuber. Zwischen dem, was er fachlich veröffentlicht und dem, was er privat und medial wirksam aussagt, gibt es in der Regel keine Schnittmenge. So war Schellnhuber in 2003 Mitautor in einem begutachteten Fachjournalartikel, welcher keine globale Erwärmung auffand (Schellnhuber_PRE-2003-1), die betreffende Stelle ist zum besseren Auffinden gelb markiert. Und gerade einmal 6 Jahre später ruft Schellnhuber in einem ZEIT-Interview den Klimanotstand aus (ZEIT-Interview Schellnhuber). Daher: Es zählt nur das, was in der Fachliteratur steht und nicht, was deutsche Medien an Unsinn schreiben.

Interviewzeit = Minute ~7:30

Laghai: Herr Schellnhuber hat eine Studie veröffentlicht, in welcher der Begriff „Heißzeit“ fiel. Was halten Sie davon? (Anmerkung: Frau Laghai kennt vermutlich nicht den Unterschied zwischen einem Medien-Artikel und einem begutachteten Fachartikel. Daher ihre Frage, was ich vom Begriff „Heißzeit“ hielte).

Antwort: Gar nichts. (Anmerkung: Darauf schilderte ich kurz die Temperaturentwicklung der letzten 9000 Jahre nach Ende der letzten Eiszeit und wies auf das, verglichen mit heute, etwa gleichwarme römische und mittelalterliche Optimum hin. Die beiden Holozän-Warmzeiten, etwa 4500 Jahre und 6500 Jahre vor unserer Zeit waren sogar noch wesentlich wärmer als heute (in Abb. A2-4, hier). In diesen Zeiten entstanden die ersten Hochkulturen, Warmzeiten waren immer positiv für die Menschheit, Kaltzeiten dagegen stets katastrophal, Völkerwanderungen und Seuchen waren ihre Begleiter usw. usw.). Kurz, heute von einer katastrophalen Heißzeit zu sprechen, ist unseriös.

Interviewzeit = Minute 9:30

Laghai: Herr Schellnhuber spricht von einem internationalen Konsens über den menschgemachten Klimawandel. Warum sind Sie dagegen?

Antwort: Aus zwei Gründen. Erstens gibt es den so oft beschworenen Klimakonsens nicht (Anmerkung: folgenden Beispiele belegen es Fachstimmen gegen das IPCC). Es gibt weltweit jede Menge renommierter Klimaexperten, die meine Meinung teilen. Man braucht sich nur die Namen in den von mir aufgeführten Petitionen anzusehen, an welchen Universitäten sie lehren und was sie in Fachzeitschriften veröffentlichten. Zum zweiten hat Wissenschaft mit Konsens nichts zu tun, im Konsens stirbt sie. Nur Abweichler vom Mainstream bringen die Wissenschaft voran. Das wohl bekannteste Beispiel ist die Plattentektonik von Alfred Wegener, die erst posthum gewürdigt wurde.

Interviewzeit = Minute ~14:20

Laghai: Leisten Sie in EIKE wissenschaftliche Pionierarbeit?

Antwort: EIKE ist ein gemeinnütziger Verein von Freiwilligen, meist von Naturwissenschaftlern, Ingenieuren und weiteren Akademikern, der es sich zum Ziel gesetzt hat, die Öffentlichkeit über die Klima- und Energie-Fakten aufzuklären. Dies ist allein deswegen schon nicht schwierig, weil die deutschen Medien, weit mehrheitlich, ihrem Auftrag nach neutraler Aufklärung nicht mehr nachkommen. Es sei hier nur an den zutreffenden Begriff „Lückenmedien“ erinnert. In Deutschland wird einseitig berichtet, dies war die Veranlassung EIKE zu gründen und dies erklärt auch seinen Erfolg.

Interviewzeit = Minute ~15:4

Laghai: Was ist das erklärte Ziel von EIKE?

Antwort: Aufklärung. Daneben gibt es auch noch Forschungstätigkeit in EIKE, mit Fachaufsätzen, die in begutachteten Fachzeitschriften veröffentlicht werden (Anmerkung: hier die Liste unserer Begutachteten EIKE-Veröffentlichungen)

Interviewzeit = Minute ~18

Laghai: Wie wichtig ist die Arbeit von EIKE für die Aufklärung in Deutschland?

Antwort: Sehr wichtig, weil sie im Kontrast zu dem steht, was die deutschen Medien entweder falsch oder gar nicht berichten. EIKE ist unpolitisch und unabhängig. EIKE-Mitglieder decken das gesamte Parteienspektrum ab, ähnlich wie die durchschnittliche Bevölkerung. Bloß Partei-Grüne gibt es meines Wissens bei uns nicht, denn die Grünen sind unsere eigentlichen Gegner.

Interviewzeit = Minute ~19

Laghai: Fragen über Interna von EIKE, wieviel Mitarbeiter hat EIKE  (Anmerkung: Frau Laghai meinte wohl Mitglieder).

Antwort: (Anmerkung: Ich gab hierauf keine Antworten).

Interviewzeit = Minute ~20:10

Laghai.: Wo finden Sie politisches Gehör?

Antwort: früher nur bei der Partei der Vernunft, die sich inzwischen aufgelöst hat. Aktuell vielleicht in einigen Strömungen der FDP aber voll und ganz bei der AfD. Sonst bisher in keiner anderen Partei. (Anmerkung: Bei dieser Gelegenheit wies ich auf den verschwindenden Effekt von teuren CO2-Einsparungen Deutschlands hin, nachzulesen in Gutachterliche Stellungnahme Lüdecke 4April2018 auf S. 8 unter „Was bewirken die gesetzlichen CO2 Einparungen Nordrhein-Wetsphalens?“. Diese Stellungnahme ist auch vom Server der NRW-Landesregierung abgreifbar, aber dort sind leider nicht die Quellen verlinkt, hier ist es der Fall. Einsparungen von CO2 schädigt alle Bereiche unseres Lebens vom Autoverkehr bis zur Ernährung. Ich wies auch auf die gleiche Größenordnung von menschlicher Ausatmung und weltweitem CO Ausstoß durch Autoverkehr hin, ebenfalls auf S. 8 in der o.g. gutachterlichen Stellungnahme).

Interviewzeit = Minute ~23

Laghai: Arbeiten Sie mit der AfD zusammen?

Antwort: Jedem der zu uns kommt, um sachliche Auskunft oder gar Mithilfe bittet, wird geholfen – soweit dies möglich ist. Dies sehen wir als unsere gemeinnützige Verpflichtung an.

Interviewzeit = Minute ~24:30

Laghai: Warum beeinflussen Sie die AfD mit Ihrer Meinung?

Antwort: Es ist umgekehrt, die AfD übernimmt unsere Auffassung, wir informieren nur. Auf die aus unseren Sachaussagen gebildete politische Aussage kann, darf und will EIKE keinen Einfluss nehmen. Wenn EIKE-Mitglieder gleichzeitig AfD-Mitglieder sind, ist es ihre private Angelegenheit, wenn sie ihre Expertise in entsprechende AfD-Fachgremien einbringen.

Interviewzeit = Minute ~25:

Laghai: Kennen Sie CFACT und Hartlandinstitut?

Antwort: ich kenne diese beiden Institutionen nicht, habe nur von ihnen gehört, sind anscheinend ähnliche Vereine wie wir in den USA. (Anmerkung: dies ist neben meiner vorangegangenen kurzen Erklärung über EIKE der einzige weitere Interviewpunkt, der in der MONITOR-Sendung gebracht wurde. Der Frage nach CFACT und Hartland folgten noch weitere insistierende Fragen zu ähnlichen sachfremden Themen, zu denen ich keine Antworten gab. Ich betrachte meine Funktion als Pressesprecher als Experte für Sachfragen, nicht für Organisation oder EIKE-Interna. Schade um die verplemperte Zeit).

Interviewzeit = Minute ~34

Laghai. Was werfen sie Wissenschaftlern wie Herrn Schellnhuber vor?

Antwort: Persönlich gar nichts, ich habe Herrn Schellnhuber einmal persönlich kennengelernt, er hat mir auf meine Bitte hin sogar ein Buch mit ihm als Mitautor zukommen lassen. Vorzuwerfen ist Herrn Schellnhuber und seinen wissenschaftlichen Mitstreitern weltweit der permanente Mißbrauch ihrer wissenschaftlichen Arbeiten für politische Zwecke. Wissenschaftler sollten jedem Fragenden, insbesondere auch Politikern neutral Auskunft erteilen aber niemals selbst ihre Arbeiten politisch aktiv instrumentalisieren. (Anmerkung: Ich nannte Frau Laghai als Extrembeispiele den Lyssenkoismus (hier) und die Eugenik der National-Sozialisten (hier), um zu zeigen, wie gefährlich in solchen Extremfällen fehlgegangener Wissenschaft die Einmischung in die Politik werden kann).

Interviewzeit = Minute ~35, Pause wegen Kassettenwechsel bis ~40

Laghai: Was würde passieren, wenn sich die internationale Völkergemeinschaft von den Klimaschutzzielen verabschiedet?

Antwort: Gar nichts. Der Mensch kann die globale Klimaentwicklung nicht beeinflussen. Zu diesem Anlass wies ich auf die sachlich total verfehlte deutsche Klima- und Energiepolitik hin, die mit der Schleifung von CO2 freien Kernkraftwerken begann. Deutschland hat seine selbstgesteckten Klimaziele verfehlt, aber ausgerechnet die USA unter Präsident Trump haben ihre CO2-Emissionen durch vermehrte Gasverbrennung verringert.

Interviewzeit = Minute ~41

Laghai: Was wäre die Gefahr, wenn man an den  Klimaschutzzielen festhalten würde?

Antwort: Die Deindustrialisierung Deutschlands durch die jetzt schon katastrophale deutsche Energiewende, die mit deutscher Gründlichkeit vermutlich bis zum bitteren Ende durchgezogen wird. Die Energiewende hat höchste Strompreise, unzuverlässige Stromversorgung, Naturzerstörungen und gesundheitliche Infraschallschädigungen von Anrainern durch Windräder gebracht, sonst nichts. Wenn auch noch die Kohle wegfallen sollte, was hoffentlich verhindert werden kann, müssen wir auch noch teures russisches Gas zur Stromerzeugung kaufen und begeben uns in die Abhängigkeit Russlands. Dabei könnte North Stream, falls mit dem Gas nur Strom erzeugt würde, durch gerade einmal 15 Kernkraftwerke der 1,5 GW-Klasse ersetzt werden. Was in Deutschland in Sachen Klima und Energie unternommen wird ist mit „purer Wahnsinn“ fast noch euphemistisch bezeichnet.

Interviewzeit = Minute 42

Laghai: Also soll sich Deutschland von seinen Klimazielen verabschieden?

Antwort: Selbstverständlich, Klimaziele sind sachlicher Unfug, man kann Klima nicht schützen.

Interviewzeit = Minute ~42:30

Laghai: EIKE wird vorgeworfen, dass es eine politische Agenda habe.

Antwort: Darauf hatte ich schon schon geantwortet. Wir haben keine politische Agenda in Richtung irgend einer politischen Partei Deutschlands. Wenn Sie allerdings unsere sachliche Forderung nach Aufgabe von Klimaschutz und Energiewende als politische Agenda definieren, dann haben wir eine Agenda. Denn Klimaschutz und Energiewende sind sachlicher Irrsinn.

Interviewzeit = Minute ~43:20

Laghai: Was ist Ihre Forderung

Antwort: Abschaffung von Klimaschutz und Energiewende. Rückkehr zur Nutzung der Kernkraft durch Ausnutzung der technisch sinnvollen Laufzeiten unserer noch vorhandenen KKW. Ferner die Forschung an der Generation IV von KKW wieder aufnehmen, die keinen nennenswerten Abfall mehr verursachen, weil sie das Uran fast vollständig verbrennen. Bei Bedarf neue Kohlekraftwerke bauen und Gas nicht für die Stromerzeugung verwenden, es ist zu teuer. Kurz, technische Vernunft und Zukunftsfähigkeit in Deutschland wieder herstellen.

Interviewzeit = Minute ~44

Laghai: Die Wissenschaft ist sich einig, dass es einen menschgemachten Klimawandel gibt, wie sollen wir darauf politisch reagieren?

Antwort: ich sagte bereits, dass Ihre Aussage nicht zutrifft und hatte Ihnen auch die zahlreichen Petitionen und Manifeste von Klimawissenschaftlern gegen die IPCC-Hypothese genannt.

Interviewzeit = Minute ~45

Laghai (Anmerkung: wiederholt und jetzt vorsichtiger formuliert): Es gibt viele Wissenschaftler, die sagen, dass wir eine gefährliche globale Erwärmung durch menschgemachtes CO2 haben. Wir müssen darauf reagieren. Sind Sie damit einverstanden?

Antwort: Nein, ich weise nochmals auf die entsprechenden Manifeste und Petitionen hin (Fachstimmen gegen das IPCC). Aber selbst dann, wenn – sozusagen hilfsweise – die Klima-Alarmisten recht hätten, wie sollen wir reagieren? CO2 Reduktionen weltweit sind völlig illusorisch, China baut im Wochentakt neue Kohlekraftwerke, die können gar nicht anders, wenn sie ihre Entwicklung vorantreiben wollen. Wenn man tatsächlich weltweite CO2-Einsparungen durchsetzen könnte, würden das Milliarden Menschen nicht überleben.

Interviewzeit = Minute ~46:30

Laghai: Also Sie sagen, dass der CO2-Ausstoß nichts mit der Erderwärmung zu tun hat.

Antwort: Genau dies sage ich. Es gibt keinen wissenschaftlichen Beleg dafür. Die aktuelle Klimaerwärmung ist normal und kam allein nach Ende der letzten Eiszeit sogar oft stärker vor.

Interviewzeit = Minute 47

Laghai: würden Sie sagen, Eike ist ein wissenschaftliches Institut?

Antwort: Ja und nein. Ja, weil EIKE-Mitglieder in begutachteten wissenschaftlichen Fachjournalen veröffentlichen. Nein, weil wir keine Lehre betreiben und daher auch keine Diplomanden oder Doktoranten ausbilden.

Interviewzeit = Minute ~48

Laghai: Sind Sie ein Lobbyverein

Antwort: Nein (Anmerkung: ich war versucht zu sagen „wir sind ein Lobbyverein und zwar für die wissenschaftliche Wahrheit“, unterließ es aber, weil ich befürchtete, dass dann nur der erste Teil des Satzes veröffentlicht und der zweite weggeschnitten wird).

Interviewzeit-Ende = Minute ~49

Fazit zur MONITOR-Sendung

Man könnte viel über die MONITOR-Sendung schreiben. Ich unterlasse es, denn die Sendung spricht für sich. Mir fällt allenfalls dazu der Physiknobelpreisträger Werner Heisenberg ein, der in seinem Buch „Der Teil und das Ganze“ etwas Bemerkenswertes sagte:

„Will man den Wahrheitsgehalt einer Aussage erkennen, sollte man sich zuerst die Methoden des Aussagenden ansehen“

 

 

 

 

 

 

 

 




Der Kampf gegen die globale Ergrünung – Teil 2

Schlechtes hinsichtlich Globaler Ergrünung: (zitiert aus Zimmers Artikel):

1. Mehr Photosynthese bedeutet nicht mehr Nahrungsmittel.

2. Zusätzliches Kohlendioxid kann Pflanzen weniger nahrhaft machen.

3. Mehr Pflanzen verhindern nicht den Klimawandel.

4. Globale Ergrünung wird nicht ewig dauern

Im Teil 1 haben wir die Frage nach der Relation zwischen gesteigerter Photosynthese und Nahrungsmittel-Erzeugung beleuchtet (Nr. 1 bei Zimmer). Und jetzt…

wollen wir auf Nr. 2 schauen: „Zusätzliches Kohlendioxid kann Pflanzen weniger nahrhaft machen“

Zimmer und Campbell sagten Folgendes:

Eine Anzahl von Studien zeigt, dass Pflanzenwachstum in zusätzlichem Kohlendioxid oftmals dazu führt, dass die Pflanzen weniger Nährstoff-Konzentrationen enthalten wie Stickstoff, Kupfer und Kalium.

Mit mehr in die Atmosphäre gelangendem Kohlendioxid wird sich das Problem verschärfen. „Es gibt definitiv starke Beweise, dass die Qualität betroffen sein wird“, sagte Dr. Campbell.

Es ist nicht klar, warum es dazu kommt. In einer im Journal Current Opinion im Juni veröffentlichten Studie zum Thema Pflanzen-Biologie haben Johan Uddling und seine Kollegen an der University of Gothenburg [Göteborg] in Schweden hier spekuliert, dass Mikroben die Ursache sind.

Genauso wie Kohlendioxid der Photosynthese Schub verleiht, könnte auch die Rate zunehmen, mit der Bodenmikroben Nährstoffe aufnehmen. Dies wiederum lässt weniger Nährstoffe für die Pflanze übrig, die sie mit ihren Wurzeln aufnimmt.

Falls wir Nahrung zu uns nehmen, der Nährstoffe fehlen, werden wir anfälliger für alle möglichen Krankheiten. Jüngst hat ein Forscherteam an der Stanford University untersucht, wie künftige Veränderungen der Erntemenge die Weltgesundheit beeinträchtigen können. Die Ergebnisse waren düster. In Südostasien beispielsweise schätzten die Forscher, dass die Rate von Eisenmangel bis zum Jahr 2050 von 21,8% auf 27,9% steigen kann. Fehlen von Eisen und anderen Nährstoffen kann Millionen Menschen anfälliger machen für Krankheiten, darunter Malaria und Lungenentzündung, was zu vielen frühzeitigen Todesfällen führt.

Zunächst wollen wir den dummen Teil loswerden: „Mikroben sind die Ursache“. – Uddling et al. stellen frank und frei fest, dass sie keine Ahnung haben, warum primär die Unterschiede von Proteinen in Weizen gefunden werden, der unter höheren CO2-Konzentrationen wächst. Zitat aus der Schlussfolgerung: „Gegenwärtig kann keiner der hypothetischen Prozesse die CO2-induzierte Abnahme von Protein-Konzentrationen erklären“. Zweiter dummer Teil: „Falls wir Nahrung zu uns nehmen, der Nährstoffe fehlen …“ Falls keine Nährstoffe enthalten sind, ist es überhaupt keine Nahrung. Jeder Bissen, den wir nehmen, enthält entweder mehr, die gleiche Menge oder weniger von irgendwelchen „Nährstoffen“ wie jeder andere Bissen der Nahrung – jedes Stück Obst hat mehr oder weniger Nährstoffe als jedes andere Stück Obst – jedes Getreide hat unterschiedliche Konzentrationen von Nährstoffen als jedes andere Getreide. Dass es Unterschiede gibt bei Konzentrationen von Nährstoffen in der Nahrung ist weder Grund für Alarm noch „verursacht“ es Krankheiten oder Verwundbarkeiten. Ich werde später die wirklichen Gründe ansprechen.

Der wichtigste Punkt steckt in der Behauptung, dass Pflanzen, die unter erhöhten CO2-Bedingungen wachsen, „oftmals geringere Konzentrationen von Nährstoffen enthalten wie Stickstoff, Kupfer und Kalium“. Dies ist der Trugschluss der Nahrungs-Fetischisten und ist verantwortlich für eine Masse Unsinn im Bereich Nahrung und Nährstoffe der Wissenschaft.

Es gibt immer Unterschiede der Ernährungswerte zwischen individuellen Getreidesorten jedweder Nahrungsmittel. Das gleiche Getreide, dass im Süden des großen Gutes meines Vaters geerntet wird, wird unterschiedliche Ernährungswerte haben als das Getreide im Nordteil der Äcker. Dies liegt an den leicht unterschiedlichen Wachstumsbedingungen, der Verfügbarkeit von Wasser, dem Gare-Zustand des Bodens, Dünge-Kalender, Zeitpunkt der Aussaat und Behandlung des Ertrags nach der Ernte. Das Getreide von den südlichen Äckern mag erkennbar höhere Prozentanteile bestimmter Mineralien, Proteine und Kohlenhydrate aufweisen als das Getreide von den Äckern im Norden.

Wenn ein Landwirt eine unterschiedliche Auswahl des gleichen Getreides anbaut, dann ändert sich alles erheblich.

Beispiel: Bei The Crop Trust sind gegenwärtig 29.401 verschiedene Arten von Mais gelistet. Hier folgt ein Beispiel der Auswirkung verschiedener Getreidesorten auf die Nährwerte:

Mais ist das bevorzugte Grundnahrungsmittel für über 1,2 Milliarden Menschen in Afrika südlich der Sahara und in Latein-Amerika. Allerdings fehlt es bei einer Ernährung auf Mais-Basis, was besonders für die sehr Armen gilt, oftmals an wichtigen Vitaminen und Mineralien. Über 50 Millionen Menschen in diesen Regionen leiden unter Vitamin A-Mangel, was zu Sehstörungen, Blindheit und verstärkter Kindersterblichkeit führen kann. Dem weißen Mais in weiten Gebieten des südlichen Afrika fehlt es fast vollständig an Vitamin A, während der gelbe Standard-Mais etwa 2 Mikrogramm pro Gramm enthält – immer noch unzureichend bei einer von Mais dominierten Ernährung. … Wissenschaftler erwarten die Erzeugung von Materialien mit dem ultimativen Ziel von 15 µg/g innerhalb der nächsten vier Jahre durch besondere Züchtungen.

Einige Maissorten enthalten überhaupt kein Provitamin A – andere gelbe Sorten enthalten etwas davon, aber nicht genug, um allein einen Vitamin A-Mangel zu verhindern. Züchtungen sollen Maissorten hervorbringen, welche die 15 µg/g Vitamin A enthalten. Damit ließe sich der Vitamin A-Mangel in Gebieten mit Mais als Grundnahrungsmittel beseitigen. Wir alle haben vom Goldenen Reis gehört – unterdrückt von Greenpeace und anderen fehlgeleiteten Fanatikern – welcher den Vitamin A-Mangel in Gebieten mit Reis als Hauptnahrungsmittel eliminieren könnte.

The UN’s FAO reports:

Früchte, Wurzeln, Knollen- und Blattgemüse sind die Hauptlieferanten von provitamin A-Carotinen. Wegen ihrer Verfügbarkeit und Bezahlbarkeit werden grüne Blattgemüse großenteils in armen Bevölkerungsschichten verzehrt, aber die Vitamin A-Versorgung hat sich als geringer als zuvor erwartet erwiesen. Unter den Früchten bieten Mangos eine wichtige saisonale Quelle für Vitamin A. Gelbe oder orange Süßkartoffeln sind reich an Provitamin A. … Neue Sorten mit hohem Gehalt an Provitamin A sowie Bildung und Beratung vor Ort in dieser Beziehung können die Aufnahme von Vitamin A seitens anfälliger Menschen deutlich erhöhen.

Das Gegenteil kann aber auch wahr sein. In der Dominikanischen Republik, wo ich lange tätig war, mussten wir uns niemals Sorgen über einen Vitamin C-Mangel unter den Armen machen. Die Früchte, die überall wild und üppig wuchsen, stellte die ausreichende Versorgung sicher. Mehr oder weniger Vitamin C in der lokalen Sortenvielfalt von Mangos macht keinen großen Unterschied. Aber die Babys der in Armut Gefangenen brauchen verzweifelt eine Vitamin A-Versorgung – weil Babys keine Mangos essen.

Dies gilt allgemein auf der ganzen Welt. Die geringen Unterschiede bei Spuren-Nährstoffen zwischen Getreidesorten und zwischen den gleichen Sorten von verschiedenen Stellen sind bereits größer als die Unterschiede zwischen Getreide bei verschiedenen Gehalten von CO2 in der Luft. All das wurde bereits vor vielen Jahren erkannt, als die jüngste „Angst erzeugende Gesundheits-Story“ lautete, dass die „moderne Landwirtschaft unsere Böden so stark ausgelaugt hat, dass die Nahrung keinen Nährwert mehr hat“. (normalerweise folgt dann Werbung für Nahrungs-Ergänzungsmittel, deren Gehalt an diesen Stoffen weit über das hinausgeht, was irgendein Mensch irgendwo braucht).

Für eine umfassende Studie zu diesem Thema siehe diese hier [PDF] von Robin J. Marles. Auf den Punkt gebracht heißt es darin:

Gleichzeitige Vergleiche von modernen und älteren Getreidesorten, welche Seite an Seite wachsen, sowie archivierte Stichproben, zeigen geringere Mineral-Konzentrationen in Sorten, die auf größere Ernteerträge getrimmt waren. Der höhere Gehalt an Kohlenhydraten geht nicht einher mit einer proportionalen Zunahme der Mineralien – ein „Verdünnungs-Effekt“.

Wenn moderne Getreidesorten besser Ernten oder mehr Früchte bringen durch Züchtung, bessere landwirtschaftliche Verfahren, moderne Dünger und CO2-Düngung, dann enthält diese zusätzliche „Nahrung“ nicht einen proportional gleich höheren Anteil an Mineralien, Vitaminen, Proteinen und Kohlehydraten. Die Biologie ist sich heute immer noch nicht sicher, warum das so ist.

Aber unter dem Strich steht, was wichtig für uns ist:

Die Vorteile gesteigerter Ernteerträge, um wachsende Populationen mit Nahrung zu versorgen, übertrifft geringe Nährstoff-Abschwächungseffekte, indem man die erforderlichen täglichen Dosen von Gemüse, Obst und Getreide zu sich nimmt.

Nährwert-Defizite treten nicht auf, weil man Nahrungsmittel isst, denen „Nährstoffe fehlen“, sondern Nährwert-Defizite resultieren aus Armut und Unfähigkeit von Menschen, überhaupt genug zu essen zu haben, um sich gesund zu ernähren.

Nährwert-Defizite treten ausschließlich auf, wenn man nicht genug zu essen hat. Punkt!

Sinnlose Sorgen über geringe Änderungen der Nährstoff-Werte verschiedener Getreidesorten unter höheren CO2-Konzentrationen führen nicht zu irgendeiner Lösung und lösen nicht die Ernährungsprobleme der Armen der Welt. Genau wie die Angst um die „Boden-Auslaugung“ inzwischen in der Versenkung verschwunden ist, wird auch der „CO2-induzierte Mangel an Nährstoffen“ still und heimlich verschwinden.

Quick Links:

The Fight Against Global Greening – Part 1

“‘Global Greening’ Sounds Good. In the Long Run, It’s Terrible.”

speculated that microbes are to blame

The Crop Trust

Mineral nutrient composition of vegetables, fruits and grains [pdf]

Anticipated burden  of carbon-dioxide-induced nutritional deficiencies study

provitamin A

What a Little Vitamin A Could Do

SuperFoods.

Link: https://wattsupwiththat.com/2018/08/15/the-fight-against-global-greening-part-2/

Übersetzt (und leicht gekürzt) von Chris Frey EIKE




Den Klima-Fluch brechen

Vor 13 Jahren sah sich ein Republikanischer Präsident, welcher die USA aus einem drückenden Klimavertrag zurückgezogen hatte, isoliert beim jährlichen Treffen westlicher Spitzenpolitiker. „Tony Blair beklagt einen beispiellosen Riss zwischen seinem Land und den USA bzgl. Klimawandel auf dem G8-Gipfel nächste Woche. Der Gipfel wird zu einem Schluss-Kommuniqué führen, dem sieben Nationen zustimmen werden und bei dem Präsident George Bush außen vor bleibt“, berichtete der Guardian über das Treffen. Frankreich und Deutschland wollten lieber ein geteiltes Kommuniqué als gar keines, hieß es in dem Artikel.

George W. Bush, welcher sein Land aus dem Kyoto-Protokoll 2003 herausgelöst hatte, beugte sich und stimmte einem offiziellen Dokument zu, in welchem bestätigt wurde, dass die globale Erwärmung im Gange ist und dass „wir genug wüssten, um jetzt zu handeln“. Der G8-Gipfel im Jahre 2005 brachte die USA zurück auf den Weg, der ultimativ über den Kopenhagener Klimagipfel – wo China und Indien US-geführte Versuche zu einem globalen Klima-Vertrag marginalisierten – zum Paris-Abkommen 11 Jahre später führte.

Es war ein völlig anders gearteter amerikanischer Präsident, der im Juni dieses Jahres dem G7 in Charlevoix beiwohnte (nachdem man Russland im Jahre 2014 die Tür gewiesen hatte). Hätte es nicht den Zwist zwischen dem kanadischen Premierminister Justin Trudeau und Präsident Trump gegeben, wobei Ersterer mit Vergeltungs-Strafzöllen auf Stahl- und Aluminium-Zölle von Letzterem reagierte, wäre der Klima-Split die große Story gewesen. Während vor 15 Jahren die bloße Möglichkeit der Isolierung Bush zu einem Kompromiss bewegte, durchbrach Trump die Isolation und fügte einen America only-Absatz in das Gipfel-Kommuniqué ein, in welchem er den fundamentalen Widerspruch zum Rest der Gruppe umriss.

„Die USA glauben, dass nachhaltiges wirtschaftliches Wachstum und Entwicklung abhängig sind von ungehindertem Zugang zu bezahlbaren und zuverlässigen Energiequellen“ heißt es darin, gefolgt von einem Angebot eines Manifestes für globalen Energie-Realismus. Dieser eine Absatz ist definitiver als die Ankündigung des Präsidenten im vorigen August, sich aus dem Paris-Abkommen zurückzuziehen. Immerhin hat George W. Bush das Kyoto-Protokoll abgelehnt, welches Bill Clinton unterzeichnet hatte. Und Trump ließ bei seiner Ankündigung des Rückzugs die Tür offen für eine Teilnahme der USA an einem neu auszuhandelnden Klima-Abkommen. In Charlevoix schloss er diese Tür. Anders als 2005 ist derzeit kaum zu erkennen, wie man da zurückgeht.

Das ist weit mehr als eine Prozedur. Trump bricht den Fluch der Unvermeidlichkeit des Übergangs zu erneuerbarer Energie. Der Eindruck eines unwiderstehlichen Impulses war eines der wirksamsten Werkzeuge bei dem Zwang, dem Klima-Katechismus zu folgen. Wie im Sozialismus wird der Übergang zu sauberer Energie scheitern, weil dieser nicht funktioniert. Aber es bedarf einer starken Führerschaft, um den Ruin zu vermeiden, den die falsche Versprechung einer kostenfreien Dekarbonisierung mit sich bringen würde.

Der Rückzug aus dem Paris-Abkommen war der erste Schritt. Der Präsident hat auch den Krieg seines Vorgängers gegen die Kohle beendet. Im globalen Maßstab kann die fortgesetzte Befürwortung von Energie-Rationalität seitens der Regierung Freunde unter den Armen der Welt gewinnen, und einige der dynamischsten Ökonomien der Welt können zu Alliierten werden. Das geostrategische Potential amerikanischer Energie ist bereits spürbar. Amerikanisches Gas wird nach Polen und amerikanische Kohle in die Ukraine exportiert – was die Abhängigkeit der Region von russischem Gas verringert. Anfang Juli hat der Präsident auf dem NATO-Gipfel darauf hingewiesen, dass aus Deutschland via der Pipeline aus Russland „Milliarden Dollar“ pro Jahr eben dorthin fließen werden, obwohl er danach die strategische Logik seines Arguments auf der katastrophalen Pressekonferenz mit Wladimir Putin in Helsinki am 16. Juli untergrub. Die Trump-Regierung sollte jetzt ihre Beziehungen zu anderen Energie-realistischen Nationen stärken und der Welt die Vorteile des amerikanischen Sonderwegs bzgl. Energie vor Augen führen – als da wären heimische Arbeitsplätze, boomende Exporte und eine Flucht vor der schlimmen Energiepolitik, die auf einer fälschlich kolportierten Ressourcen-Verknappung beruht.

Der ganze Betrag steht hier.

Link: https://www.thegwpf.com/breaking-the-climate-spell/

Übersetzt von Chris Frey EIKE




Der grobe physika­lische Fehler der Klima­tologie: Antworten auf Kommen­tare

In einem Temperatur-feedback loop ist die Eingangsgröße die Referenz-Temperatur R, bevor die Rückkopplung greift. Das Ausgangssignal ist die Gleichgewichts-Temperatur E nach Einwirkung der Rückkopplung. Der Rückkopplungs-Faktor f (= 1 – R / E) ist das Verhältnis der Rückkopplungs-Reaktion fE (= E – R) zu E. Dann ist E = R + fE = R(1 – f)–1. Per Definitionem ist E = RA, wobei A der Systemverstärkungsfaktor oder die Transfer-Funktion ist, gleich (1 – f)–1 und zu E / R.

Aber Ihr Ergebnis ist zu komplex. Bitte stellen Sie es in einfacherer Form dar!

Fälschlich definiert das IPCC (2013, S. 1450) die Temperatur-Rückkopplung als ausschließlich auf Änderungen der Referenz-Temperatur reagierend. Die Rückkopplung reagiert jedoch auf die gesamte Referenztemperatur. Die Klimatologie lässt also folglich den Sonnenschein außen vor und vergibt die Gelegenheit, direkt und zuverlässig den Heiligen Gral der Studien zur Klimasensitivität zu finden – den Systemverstärkungsfaktor.

Lacis+ (2010) stellte sich vor, dass im Jahre 1850 die Rückkopplungs-Reaktion für 75% der Gleichgewichts-Erwärmung von ~44 K verantwortlich war, getrieben durch die vorindustriellen, nicht kondensierenden Treibhausgase. Dies impliziert einen Rückkopplungs-Faktor von 0,75, einen Systemverstärkungsfaktor von 4 und eine Gleichgewichts-Sensitivität von 4,2 – also 4 mal die Referenz-Sensitivität von 1,04 (Andrews 2012). Lacis ordnete den nicht kondensierenden Treibhausgasen fälschlich die große Rückkopplungs-Reaktion auf die Emissionstemperatur der Sonne zu.

In Wirklichkeit hätte die absolute Emissionstemperatur ohne nicht kondensierende Treibhausgase 243,3 K betragen und die Erwärmung durch jene Gase 11,5 K. Daraus ergibt sich eine Referenz-Temperatur von 254,8 K vor Rückkopplungen. Die HadCRUT4-Gleichgewichts-Temperatur nach der Rückkopplung betrug 287,55 K. Folglich betrug der Systemverstärkungsfaktor, also das Verhältnis der Gleichgewichts- zur Referenz-Temperatur, 287,55 / 254,8 oder 1,13.

Bis 2011 wäre die Referenz-Temperatur um 0,68 K auf 255,48 K gestiegen, falls die gesamte Erwärmung seit 1850 anthropogener Natur war. Die Gleichgewichts-Temperatur wäre gestiegen um die Summe der beobachteten Erwärmung von 0,75 K (HadCRUT4) und 0,27 K, um die Verzögerung des Auftretens der menschengemachten Erwärmung zu berücksichtigen. Folglich: 287,55 + 1,02 = 288,57 K.

Die Klimatologie würde also den Systemverstärkungsfaktor mit 1,02 / 0,68 oder 1,5 berechnen. Und doch impliziert die mittlere Schätzung derzeit mit der 3,4 K Erwärmung pro CO2-Verdoppelung einen unmöglichen Wert von 3,25.

In Wirklichkeit betrug der Systemverstärkungsfaktor 288,57 /255,48 oder 1,13 und lag damit genauso hoch wie im Jahre 1850. Er hat sich während der 161 Jahre 1850 bis 2011 kaum verändert, weil die Referenz-Temperatur des Jahres 1850 375 mal die menschengemachte Referenz-Sensitivität von 0,68 K war (von 1850 bis 2011). Sonne groß, Mensch klein: Nichtlinearitäten in Rückkopplungs-Reaktionen sind kein Thema.

Angesichts der gegebenen 1,04 K Referenz-Erwärmung bei verdoppeltem CO2-Gehalt beträgt die Gleichgewichts-Erwärmung bei verdoppeltem CO2-Gehalt 1,04 X 1,13 oder 1,17 K – und nicht die 3,4 (2,1; 4,7) K, welche sich die CMIP5-Modelle vorstellen. Und das ist das Ende der Klima-Angstmache – in gerade mal 150 Wörtern [im Original, versteht sich. Anm. d. Übers.]. Die Erwärmung wird einfach zu gering sein, um irgendwelche Schäden anzurichten.

Das feedback-loop diagram vereinfacht sich zu diesem Black-Box Blockdiagramm.

Aber Ihr Ergebnis ist zu einfach. Kann man 122 Jahre Klimatologie in nur 350 Wörtern zum Ende bringen? Das kann doch nicht so einfach sein. Wirklich nicht. Es muss kompliziert sein. Die Modelle berücksichtigen ein Dutzend individueller Rückkopplungen nebst den Wechselwirkungen zwischen ihnen. Die Rückkopplung macht 85% der Unsicherheit bei der Gleichgewichts-Sensitivität aus (Vial et al. 2013). Sie können nicht einfach direkt zu der Antwort springen ohne auch nur eine individuelle Rückkopplung zu erwähnen, geschweige denn zu quantifizieren. Sehen Sie, in der Klimatologie machen wir uns es nicht so einfach.

Unbelebte Rückkopplungs-Prozsse können nicht „wissen“, dass sie nicht auf die sehr große Emissions-Temperatur reagieren dürfen, sondern nur auf die vergleichsweise kleinen nachfolgenden Störungen. Hat man erst einmal akzeptiert, dass die Rückkopplung auf das gesamte Eingangssignal reagiert, wird es möglich, den Systemverstärkungsfaktor zuverlässig und sofort abzuleiten. Er ist einfach das Verhältnis der Gleichgewichts- zur Referenz-Temperatur zu irgendeiner gegebenen Zeit. Die Gleichgewichts-Sensitivität bei Verdoppelung von CO2 (nachdem die Rückkopplung gewirkt hat) ist einfach das Produkt aus Systemverstärkungsfaktor und Referenz-Sensitivität bei Verdoppelung von CO2 (bevor die Rückkopplung gewirkt hat). Und das ist es. Um den Systemverstärkungsfaktor zu finden braucht man keinen individuellen Wert irgendeiner Rückkopplung. Wir können die Transfer-Funktion zwischen Referenz- und Gleichgewichts-Temperatur einfach als Black Box behandeln.

Aber jeder einzelne der fünf Zustandsberichte des IPCC ist tausende Seiten lang. Man kann nicht die Antwort in wenigen Absätzen unter Umgehung der Experten der Welt bekommen.

Hier möchte ich einen ehemaligen Chef des Präsidenten-Büros der USA zitieren: „Yes We Can“. Die „Experten“ haben die Rückkopplungs-Mathematik aus der Regelungs-Theorie angewendet, ohne sie verstanden zu haben. James Hansen von der NASA war der erste, der den Fehler, den Sonnenschein zu vergessen, in einer beklagenswerten Studie aus dem Jahr 1984 aus der Taufe gehoben hatte. Michael Schlesinger setzte ihn fort in einer konfusen Studie aus dem Jahr 1985. Anschließend hat wirklich jedermann in der offiziellen Klimatologie diesen Fehler kopiert ohne ihn zu checken. Korrigiert man diesen Fehler, wird es einfach, den Systemverstärkungsfaktor und damit die Gleichgewichts-Sensitivität zu belegen.

Aber die Klimasensitivität in den Modellen ist, was sie ist. Die Wissenschaft ist settled.

Alle ehrlichen Experten bzgl. der Regelungs-Theorie stimmen darin überein, dass Rückkopplungs-Prozesse in dynamischen Systemen auf das gesamte Eingangssignal reagieren und nicht nur auf irgendeinen willkürlichen Teil desselben. Die Mathematik ist für alle von Rückkopplungen moderierten, dynamische Systeme gleich – elektronische Schaltkreise, Prozess-Regelungs-Systeme, Klima. Man konstruiere einen Testaufbau. Alles, was man braucht, ist ein Eingangssignal, einen Rückkopplungs-Kreislauf und ein Ausgangssignal. Man verleihe dem Eingangssignal und dem Rückkopplungs-Faktor irgendeinen Wert. Dann messe man das Ausgangssignal. Der Testkreis reagiert nicht nur auf einen Bruchteil des Eingangssignals, sondern auf das gesamte Signal. Wir prüften das mit einem von uns selbst konstruierten Testkreis, außerdem baten wir ein regierungsamtliches Laboratorium, einen solchen für uns zu konstruieren und das Ausgangssignal unter verschiedenen Bedingungen zu messen.

Rückkopplungs-Verstärker-Testkreis, konstruiert und betrieben für uns durch ein regierungsamtliches Laboratorium.

Aber die von Ihnen konstruierten Testkreise sind zu einfach. Jeder Student kann sie im ersten Semester bauen. Sie brauchten nicht ein regierungsamtliches Laboratorium bemühen.

Wir wissen, dass die offizielle Klimatologie und deren Jünger Mord und Brand schreien würden, wenn sie von unserem Ergebnis hören. Billionen stehen auf dem Spiel. Also haben wir getestet, was eigentlich nicht getestet werden müsste. Die Rückkopplungs-Theorie gibt es seit 100 Jahren. Daraus etwas zu entnehmen ist settled Wissenschaft. Aber wir testeten trotzdem. Oh, und wir gingen hinab bis zu den Grundlagen und bewiesen die seit langem etablierte Rückkopplungs-Systemerhaltungs-Gleichung [feedback system-gain equation] mit zwei unterschiedlichen Verfahren.

Aber Sie hätten die Gleichung nicht mittels zweier Verfahren beweisen müssen. Alles, was es gebraucht hätte, war ein Beweis mittels linearer Algebra.

In der Tat. Der Beweis mittels linearer Algebra ist sehr einfach. Da der Rückkopplungs-Faktor das Verhältnis ist zwischen der Rückkopplungs-Reaktion in Kelvin und der Gleichgewichts-Temperatur, ist die Rückkopplungs-Reaktion das Produkt des Rückkopplungs-Faktors und der Gleichgewichts-Temperatur. Dann ist die Gleichgewichts-Temperatur die Summe der Referenz-Temperatur und der Rückkopplungs-Reaktion. Mit ein wenig elementarer Algebra folgt daraus, dass die Gleichgewichts-Temperatur das Produkt ist aus der Referenz-Temperatur und dem Reziprok von (1 – der Rückkopplungs-Faktor). Dieses Reziprok ist per definitionem der Systemverstärkungsfaktor.

Diesen erhielten wir aber auch als Summe einer unendlichen Folge von Antrieben [powers] des Rückkopplungs-Faktors. Unter der Konvergenz-Bedingung, dass der absolute Wert des Rückkopplungs-Faktors kleiner als 1 ist, dann ist der Systemverstärkungsfaktor die Summe der unendlichen Reihe von Antrieben des Rückkopplungs-Faktors, welche das Reziprok ist von (1 minus dem Rückkopplungs-Faktor), genau wie zuvor. Wir machten uns des Doppel-Checkings schuldig. Nehmen Sie es hin.

Konvergenz über die Wahrheit

Aber die von Ihnen verwendete Gleichung ist nicht aus irgendeiner bekannten physikalischen Theorie abgeleitet.

Doch, ist sie. Siehe die Antwort zuvor. Aber alles, was man wirklich über Rückkopplungen wissen muss ist, dass der Systemverstärkungsfaktor das Verhältnis ist zwischen Gleichgewichts-Temperatur (vor der Rückkopplung) und der Referenz-Temperatur (nach der Rückkopplung). Für die Jahre 1850 bzw. 2011 kennen wir beide Temperaturen bis auf eine ziemlich geringe Fehlerquote genau. Damit kennen wir den Systemverstärkungsfaktor, und daraus können wir die Gleichgewichts-Sensitivität bei CO2-Verdoppelung ableiten.

Aber die Version der Klimatologie der System-Erhaltungs-Gleichung ist abgeleitet aus der Energiebilanz-Gleichung mittels einer Taylor-Entwicklung. Sie kann nicht falsch sein.

Ist sie ja auch nicht. Sie ist lediglich nicht brauchbar, weil es zu viel Unsicherheit in den Temperatur-Unterschieden gibt als in den gut belegten absoluten Temperaturen, die wir heranziehen. Weder die Energiebilanz-Gleichung noch der größenordnungsmäßig führende Term in der Taylor-Erweiterung ergibt zuverlässig den Systemverstärkungsfaktor. Nur wenn man sich daran erinnert, dass die Sonne scheint, kann man den Wert jenes Faktors direkt und zuverlässig finden.

Klimatologie im Dunklen

Aber falls Sie sagen, die Klimatologie liegt nicht falsch, warum sagen Sie dann, sie liegt falsch?

Die Systemerhaltungs-Gleichung der Klimatologie, welche Referenz- und Gleichgewichts-Temperaturänderungen anstatt absolute Temperaturen verwendet, ist eine korrekte Gleichung, soweit man sie anwenden kann. Aber die Klimatologie begrenzt fälschlich seine Definition von Rückkopplungen als nur auf Änderungen reagierend, wobei effektiv der Sonnenschein hinaus subtrahiert wird. Rückkopplungen reagieren auch auf das absolute Eingangssignal, was es einfach macht, den Systemverstärkungsfaktor zu finden und folglich die Gleichgewichts-Sensitivität.

Aber Sie beginnen mit Ihrer Berechnung bei Null Kelvin. Sie schalten buchstäblich die Sonne ein.

Nein. Wir haben aus dem Fenster geschaut und gesehen, dass die Sonne bereits eingeschaltet ist (nun, offenbar nicht in Schottland, aber überall sonst). Unsere Berechnung fängt nicht bei Null Kelvin an, sondern bei der Referenz-Temperatur von 254,8 K im Jahre 1850. Der Rückkopplungs-Prozess beim Klima reagiert auf jene Temperatur und auf keine andere oder geringere Temperatur. Weder wissen sie noch kümmern sie sich darum, bis zu welchem Ausmaß sie auf irgendeine andere Temperatur reagiert hätte. Sie reagieren so, wie sie sind, und sie reagieren nur auf die Temperatur, die sie vorfinden. Wir kennen die Größenordnung, die sie erzeugen, weil wir die Gleichgewichts-Temperatur messen, die Referenz-Temperatur berechnen und Letztere aus Ersterer ableiten können.

Aber die Erde zeigt Bistabilität. Sie kann zwei unterschiedliche Temperaturen beim gleichen Antrieb annehmen.

Angesichts der Variabilität des Klimas kann die Erde viele Temperaturen aufgrund eines einzigen Antriebs annehmen. Aber nicht während der kurzen industriellen Ära. Der Systemverstärkungsfaktor für das Jahr 1850 und derjenige für das Jahr 2011 sind nahezu identisch. Das zeigt, dass es gegenwärtig nur unzureichend eine inhärente Instabilität gibt, welche unser Ergebnis stören kann.

Die verquirlte Rückkopplungs-Mathematik bei Hansen (1984)

Aber Rückkopplungs-Systemerhaltungs-Gleichung ist nicht geeignet für Studien zur Klimasensitivität.

Interessant, wie die wahrhaft Gläubigen ihre „settled Science“ aufgeben, wenn es ihnen gerade passt. Die Systemerhaltungs-Gleichung wird erwähnt bei Hansen (1984), Schlesinger (1985), Bony (2006), IPCC (2007, S. 631 ff.), Bates (2007, 2016), Roe (2009), Monckton of Brenchley (2015ab), etc., etc., etc. Falls Rückkopplungs-Mathematik nicht auf das Klima anwendbar wäre, gäbe es keine Entschuldigung dafür, so zu tun, als ob die Gleichgewichts-Sensitivität bei CO2-Verdoppelung irgendetwas bei 2,1 bis 4,7 K ist, geschweige denn bei den Werten bis zu 10 K in einigen extremistischen Studien. Wie auch immer, alle derartigen Werte sind in jedem Falle Unsinn, wie wir formell bewiesen haben.

Aber Wikipedia zeigt das folgende feedback-loop block diagram, welches beweist, dass Rückkopplungen nur auf Änderungen oder „Störungen“ des Eingangssignals reagieren – und nicht auf das ganze Signal –

Ein feedback loop diagram von der weltweit führenden Quelle von Fake News.

Unser Professor bzgl. der Regelungs-Theorie übertrumpft das Diagramm kriecherischer Medien mit dem folgenden Diagramm. Und Moment, die Referenz oder das Eingangssignal ist links; die Störungen (rosa) steigen von den Werten oben hinab in ihre jeweiligen summativen Zustände; und der Rückkopplungs-Block (hier bezeichnet als „output transducer“) wirkt auf all diese Eingangssignale, spezifisch einschließlich des Referenz-Signals –

Das Mainstream-Blockdiagramm für einen control feedback loop

Aber die Modelle verwenden nicht die Systemerhaltungs-Gleichung. Sie verwenden nicht einmal das Konzept von Rückkopplung.

Nein, tun sie nicht (nicht heutzutage mit irgendeiner Rate, obwohl deren Ergebnisse noch bis vor Kurzem in die Systemerhaltungs-Gleichung eingegangen waren, um die Gleichgewichts-Sensitivität abzuleiten). Allerdings sind wir sehr sorgfältig vorgegangen, um das von den Modellen prophezeite Intervall der Charney-Sensitivitäten (2,1; 4,7) K zu kalibrieren mittels der Systemerhaltungs-Gleichung. Sie erzeugte genau das gleiche Intervall auf der Grundlage der exzessiven, aus Vial+ 2013 ableitbaren Rückkopplungs-Faktoren. Die Systemerhaltungs-Gleichung ist daher direkt relevant.

Die Modelle versuchen wacker, die unzähligen mikrophysikalischen Prozesse zu simulieren, viele davon kleinräumig, welche zu Rückkopplungen führen ebenso wie zu den komplexen Wechselwirkungen zwischen ihnen. Aber das ist ein sehr unsicheres und fehleranfälliges Verfahren – und noch anfälliger für Missbrauch durch künstliche Veränderung von Temperaturwerten: siehe z. B. Steffen+ (2018) für ein beklagenswertes Beispiel aus jüngerer Zeit. Abgesehen davon, keine Rückkopplung kann quantifiziert oder von anderen Rückkopplungen unterschieden werden, ja nicht einmal von den Antrieben, welche die Rückkopplungen auslösten, durch irgendeine Messung oder Beobachtung. Der Unsicherheiten sind einfach zu viele, und sie sind zu groß.

Unser weitaus einfacheres und zuverlässigeres Black Box-Verfahren beweist, dass die Modelle wenig überraschend an dieser unmöglichen Aufgabe gescheitert sind. Korrigiert man den Definitionsfehler der Klimatologie, haben wir den Gordischen Knoten durchschlagen und die korrekte Gleichgewichts-Sensitivität direkt und mit sehr wenig Unsicherheiten gefunden.

Aber Sie sprechen von Referenz- und Gleichgewichts-Temperatur, wenn doch Strahlungsflüsse das Klima treiben.

Nun, man nennt sie „Temperatur-Rückkopplungen“, angegeben in Watt pro Quadratmeter pro Kelvin der Temperatur, welche die Rückkopplungen induziert hat. Sie werden aus den Modellen diagnostiziert und aufsummiert. Die Summe der Rückkopplungen wird multipliziert mit dem Planck’schen Sensitivitäts-Parameter in Kelvin pro Watt pro Quadratmeter, um den Rückkopplungs-Faktor zu bestimmen. Weil der Rückkopplungs-Faktor einheitslos ist, macht es keinen Unterschied, ob die Loop-Berechnung in Flussdichten oder Temperaturen durchgeführt wird. Nebenbei, bei unserem Verfahren braucht man überhaupt nichts von individuellen Rückkopplungen zu wissen. Wir finden die Referenz- und die Gleichgewichts-Temperatur, während das Verhältnis zwischen der Gleichgewichts- und der Referenz-Temperatur der Rückkopplungs-Systemverstärkungsfaktor ist. Wie auch immer, falls man pingelig sein will, es sind Strahlungsfluss-Dichten in Watt pro Quadrameter, nicht Flüsse in Watt, die relevant sind.

Zehn bedeutende Unpersonen

Aber Sie sind kein Wissenschaftler.

Unter meinen Mitautoren sind Professoren der Klimatologie, der angewandten Regelungs-Theorie und Statistik. Wir haben auch einen Experten im Bereich globale Strom-Industrie, einen Doktor vom MIT, einen Umweltberater, einen ausgezeichneten Solar-Astrophysiker, einen Kernkraft-Ingenieur und zwei Regelungs-Ingenieure – um unsere Begutachter vor der Einreichung nicht zu erwähnen, von denen zwei unter den besten Physikern der Welt zu finden sind.

Aber es gibt einen Konsens der Meinung von Experten. All jene Ensembles der Allgemeinen Zirkulations-Modelle und wissenschaftlichen Gesellschaften und Regierungsagenturen können doch nicht alle unrecht haben.

Warum nicht? Natürlich können sie. In derartigen Institutionen ist Totalitarismus vorherrschend (aber nicht mehr lange). Für sie ist die Parteilinie alles, und sie ist höchst profitabel – auf Kosten der Steuerzahler und der Energieverbraucher. Aber das Problem beim Folgen der Parteilinie ist, dass es ein narkotisches Substitut ist für unabhängige, rationale und wissenschaftliche Denkweise. Die Parteilinie ersetzt die berauschende Gefahr mentaler Ausbeutung und die aufkeimende Begeisterung beim ersten Schimmer einer Entdeckung durch eine langweilige, passive, duckmäuserische und folgsame Uniformität.

Noch schlimmer: seit die Totalitären, welche die Akademien skrupellos gekapert haben, die Parteilinie vorantreiben, hindern sie terrorisierte Wissenschaftler daran, genau die Fragen zustellen, die zu stellen das Ziel der Wissenschaft ist. Es ist kein Zufall, dass die meisten meiner angesehenen Mitautoren nicht mehr gefangen sind im trostlosen wissenschaftlichen Establishment unserer Tage. Wären wir nämlich Gefangene dieses düsteren, freudlosen, reglementierten, unflexiblen, totalitären Denkapparat, wären wir nicht frei, um das zu denken Notwendige zu denken – weil diese übelwollenden Körperschaften sowie die bezahlten oder nicht bezahlten Trolle, welche diese mit geistlosen Kommentaren unterstützen, unabhängig von der objektiven Wahrheit, jeden bestrafen, der zu denken wagt, was für sie absolut undenkbar ist. Viele meiner Mitautoren haben darunter gelitten. Nichtsdestotrotz beugen wir uns nicht.

Aber niemand stimmt mit Ihnen überein.

Hier sei beispielhaft eine der vielen uns unterstützenden E-Mails zitiert. Ich bekomme zehn unterstützende E-Mails für jeden, der meckert:

Ich gratuliere Ihnen zu dem Beitrag, der das Potential haben könnte, den finalen Nagel in den Sarg der Hysterie um die globale Erwärmung zu schlagen. Ihre und Ihres Teams Arbeit ist vielversprechend, und ich kann es kaum erwarten zu sehen, wie die Alarmisten diesen Beitrag angreifen. Die Anwendung der Rückkopplungs-Theorie in diesem Fall ist einfach, physisch elegant, mathematisch wunderschön und verständlich auch für ein breiteres Publikum. Besonders begeistert bin ich darüber, wie die Gleichung das gesamte Problem der Rückkopplungen umfasst, ohne sich mit all den unmöglichen kleinen Details zu befassen und zu unterscheiden versuchen, welches Gas was macht, ohne sich auf hoffnungslos komplexe Computermodelle zu stützen. Und darum glaube ich, dass der Beitrag wirken wird. Ich werde dies während der kommenden Monate und Jahre genau verfolgen und beabsichtige auch, an der Konferenz in Porto teilzunehmen, um auch die Juwelen von Anderen zu hören, obwohl Ihre Arbeit gegenwärtig das Kronjuwel der Detatte um die anthropogene globale Erwärmung ist.

Aber die globale Temperatur steigt genau so wie ursprünglich prophezeit.

Nein, tut sie nicht:

Unsere Prognose liegt nahe der Realität – die Prognosen der offiziellen Klimatologie sind weit abwegig.

Aber Sie haben die beiden Datensätze der globalen Temperatur gemittelt, welche die geringste globale Erwärmung zeigen.

Jawohl, haben wir. Die anderen drei wesentlichen Datensätze – RSS, NOAA und GISS – sind allesamt in einem Ausmaß frisiert worden, dass sie nicht mehr zuverlässig sind. Sie sind Verschwendung von Steuergeldern. Wir betrachten die Datensätze UAH und HadCRUT4 als weniger unzuverlässig. Das IPCC zieht den HadCRUT-Datensatz als normative Aufzeichnung heran. Unser Ergebnis erklärt, warum der Stillstand von nunmehr 18 Jahren und 9 Monaten zustande kam. Weil die zugrunde liegende anthropogene Erwärmungsrate so gering ist, wenn natürliche Prozesse agieren, um die Erwärmung zu verringern, dann können lange Zeiträume ohne Erwärmung auftreten. Im NOAA-Klimazustandsbericht 2008 wurde eingeräumt, dass falls es über 15 Jahre oder mehr keine Erwärmung geben würde, die Diskrepanz zwischen Modellen und Realität signifikant werden würde. Sie ist tatsächlich signifikant, und jetzt wissen wir auch, wie sie zustande kam.

Aber …

But me no buts! Hier ist das Ende des Betrugs um die globale Erwärmung auf einer Folie zusammengefasst:

The tumult and the shouting dies: The captains and the kings depart …

Lo, all their pomp of yesterday Is one with Nineveh and Tyre

Link: https://wattsupwiththat.com/2018/08/15/climatologys-startling-error-of-physics-answers-to-comments/

Übersetzt von Chris Frey EIKE




Das Windrad, technisch nüchtern betrachtet

Das Fatale daran ist, so der Autor, dass sie ihren jeweiligen Glauben von ihrem Erwartungshorizont abhängig machen. Genau das trifft heute für viele zu, die sich mit keiner oder minimaler Kenntnis über Elektrotechnik und deren Gesetzmäßigkeiten eine schöne Welt der Energieerzeugung vorstellen, allein, weil sie der Auffassung sind, damit Gutes zu tun.

Ähnlich wie derzeit die deutsche Sprache verkehrt wird, weil man meint, der Gattungsbegriff verstoße gegen die Gleichberechtigung von Mann und Frau (oder Frau und Mann), wird mit sprachlichen Floskeln („Liebe Mitbürgerinnen und Mitbürger“) auch im Energiebereich versucht, erfolgreich zu agieren. Eines der bekanntesten Beispiele lieferte hierzu Herr Trittin, der die sog. Energiewende an einer Kugel Eis pro Monat festmachte. Diese besagte Kugel hat jedoch eine Dimension bekommen, dass sie kein Mensch je vertragen könnte. Die Fortsetzung findet sich dann in Sätzen, wie „Wind und Sonne schicken keine Rechnung“ und „Irgendwo weht der Wind immer“. Beim ersteren Satzkonstrukt wäre es konsequent, wenn Wind und Sonne zusätzlich die Rechnung für die Erstellung von Wind- und Solarkraftwerken und deren Instandhaltung gleich mit übernehmen würden. Der zweite Satz ist bereits in der Formulierung falsch, richtig wäre einzig – wenn man eine großflächige Totalflaute außer Acht

lässt – „Immer weht der Wind irgendwo“. Wenn nämlich der Wind irgendwo immer weht, wäre es sicher ergebnisorientiert, wenn man nur dort Windräder aufbauen würde.

Das was durch die verfahrene Politik in Unkenntnis elektrotechnischer Grundlagen aus dem Ruder läuft, wird nun ebenfalls durch sprachliche Kunstwerke vertuscht. Begriffe wie „Zappelstrom“ und „Stromautobahnen“ sollen dem Normalbürger Perspektiven eröffnen, das dasjenige, was von den Grundlagen her nicht umsetzbar ist, durch weitere Hilfskonstrukte korrigiert und wirtschaftlich funktionsfähig und sinnvoll gemacht werden kann.

Das Studium der Publikation „Wie sauber sind die weißen Riesen“ von H.-J. Wagner (Lehrstuhl Energiesysteme und Energiewirtschaft, Institut für Energietechnik, Ruhruniversität Bochum) hat mich inspiriert, einmal ein Excel-Blatt aufzumachen und die erforderlichen Energien zu kalkulieren, da die dort angegebene energetische Amortisationszeit von lediglich einigen Monaten bei mir Skepsis ausgelöst hat.

Orientierung lieferte die in der Publikation gezeigte Abbildung 5, die Angaben für ein 1,5 MW Anlage enthält. In meiner Energiebilanz für ein 2 MW Windrad habe ich mit der Eisengewinnung aus Erz im Hochofen begonnen, gefolgt vom Materialaufwand für Gondel und Nabe, Generator, Umrichter, Fundament mit Zementbrennen, Armierungsstahl, Verarbeitungs- und Umformenergie, was zusammen zu immerhin 5,5 GWh führt. Reduziert man dieses Ergebnis linear auf ein 1,5 MW Windrad entsprechend der zitierten Publikation, ergeben sich 3,46 GWh, die mit dem publizierten Wert in Einklang stehen, auch wenn die berücksichtigten Terme etwas unterschiedlich sind.

Das, was die Publikation aus welchen Gründen auch immer verschweigt und zu dem phantastischen Ergebnis weniger Monate Amortisationszeit führt, ist die von der Windgeschwindigkeit abhängige Leistung. Die Publikation setzt dauerhaft die Nennleistung von 1,5 MW an, was zwar rechnerisch möglich ist, aber in krassem Missverhältnis zur Realität steht. Bekanntlich nimmt die Leistung einer Windkraftanlage in 3. Potenz mit der Windgeschwindigkeit zu. Die angegebenen 1,5 MW sind aber die Grenzleistung, bevor das Windrad abgeschaltet werden muss. Derartige Arbeitspunkte kommen nur wenige Minuten oder Stunden innerhalb eines Jahres vor. Entscheidend ist also das über das Jahr sich ergebende Windprofil, davon hängt ab, ob die mittlere Leistung 10 %, 5 % oder noch weniger von der Nennleistung beträgt.

Entsprechend der Publikation ergibt sich rechnerisch bei einer durchgängigen Windgeschwindigkeit von 13,5 m/s eine energetische Amortisationszeit von 0,3 Jahren unter Bedingungen, die es in der realen Welt nicht gibt. Auch bei einer unrealistischen durchgängigen Windgeschwindigkeit von 6 m/s beträgt die energetische Amortisationszeit 3,4 Jahre, was der Leistungsabhängigkeit in der 3. Potenz von der Windgeschwindigkeit geschuldet ist. Ohne nun die Windprofile je Region zu differenzieren, lässt sich ein vom Windprofil abhängiges „eta“ einführen, welches regional unterschiedlich ist und sich zwischen 2 % und 8 % bewegt. Die daraus errechenbaren energetischen Amortisationszeiten liegen bei 6 bis zu 12 Jahren und sind nur für jedes einzelne Windrad vor Ort bestimmbar.

Geht man von einer Lebensdauer von 20 Jahren aus, so kann die für die Erstellung der Windkraftanlage erforderliche Energie als Hypothek betrachtet werden, die das Windrad in rund 10 Jahren erst einmal zurückzahlen muss, bevor ein nutzbarer Energiebeitrag für den freien Verbrauch zur Verfügung steht. Bezogen auf das Gesamtsystem kann man das auch als einen Wirkungsgrad von rund

50 % bezeichnen, indem man Nutz-Energie zur aufgewandten Energie ins Verhältnis setzt.

Dabei sind die Energien für Erdarbeiten, Zuwegung, Transporte, Systeme für die Netzanbindung und Netzregelung usw. nicht einmal einbezogen. Das alles mit einer Kugel Eis je Monat bewerkstelligen zu wollen, spricht dafür, dass interessierte Leute die Menschen mit politischen Aussagen von der Wahrheit entfernt halten wollen. Das ist insofern einfach, da diese Leute zu keiner Zeit zur Verantwortung gezogen werden können und damit geneigt sind, ihre Ideologie zusammen mit einem immensen Unwissen politisch oder vorsätzlich irreführend erfolgreich an den Mann zu bringen. Hier darf ich wieder auf die Formulierungen des anfangs zitierten Buches verweisen.

Prof. Dr.-Ing. Peter Puschner

(Dipl.-Ing der Elektrotechnik, promovierter Maschinenbauer, Honorar-Professor)

Anlage (hier):

„Wie sauber sind die weißen Riesen“ von H.-J. Wagner (Lehrstuhl Energiesysteme und Energiewirtschaft, Institut für Energietechnik, Ruhruniversität Bochum)

Energiebilanzen gehören dank der beruflichen Einbindung in schweißtechnische Prozesse zum Alltag des Autors, sie sind sozusagen sein Handwerkszeug, um z. B. autonom arbeitende Punktschweißprozesse für die Automabilindustrie bewerkstelligen zu können.