Waste-to-Power (W2P)

W2P beschreibt nichts anderes als die energetische Nutzung oder thermische Entsorgung von Müll der verschiedensten Art. Sollte Ihnen dieses Kürzel „W2P“ nun unbekannt vorkommen, so haben Sie völlig recht, denn ich habe den Begriff soeben erfunden. Allerdings erforderte es keine gesteigerte Kreativität, denn dieses hippe Neudeutsch ist für andere Wandlungsverfahren längst gebräuchlich: P2H, P2G, P2L. Diese Bezeichnungen stehen für vermeintlich zukunftsträchtige Anwendungen, sie durchweht der Hauch der glücklichen dekarbonisierten Welt von morgen. Da kommt „Waste-to-Power“ nicht mit, denn die schnöde Abfallverbrennung hat jahrhundertelange Tradition und aus grüner Sicht keine Perspektive, weil es künftig keinen zu entsorgenden Müll mehr geben soll, sondern nur noch Wertstoffe als Quelle neuer Produkte.

Zunächst praktizierte man Müllverbrennung als einfache Lösung eines Entsorgungsproblems ohne energetische Hintergedanken. Was unbrauchbar, aber im Weg war, wurde angehäuft und abgebrannt. Die Asche kam auf den Acker und gut. Später und mit zunehmenden Müllmengen sparte man sich das und entsorgte auf riesige Haufen vor den Siedlungen und Städten, dann wurden diese Berge aus optischen und Geruchsgründen abgedeckt und Deponien genannt. Es zeigten sich Spätfolgen, vor allem in den Wirkungen auf das Grundwasser. Seit 2005 gibt es in Deutschland ein Deponieverbot. Die Rezepte gegen die Müllberge lauten jetzt: Vermeiden, stoffliche Nutzung, thermische Verwertung und Ablagerung nur dann, wenn Umweltgefährdung ausgeschlossen ist.

Was tun?

Der Königsweg ist ohne Frage der geschlossene Stoffkreislauf. Sinnvoll gehört für bestimmte Verpackungstechniken ein Pfandsystem dazu. Unser Dosenpfand-Jürgen (ja, der mit der Kugel Eis auf der Stromrechnung) setzte 2003 in seiner Zeit als Umweltminister das Dosen- und Einwegpfandsystem um. Sein Vorgänger Töpfer hatte dies schon eingerührt. Es sollte ein deutlicher Schritt sein, die Wegwerfgesellschaft zu zähmen. Den Sound der gezogenen Lasche vor dem Resonanzkörper der mit Gerstensaft oder Cola beladenen Dose galt es dauerhaft zum Schweigen zu bringen. Die Weiche in Richtung des ökologischeren Mehrwegsystems schien gestellt. Zunächst brach die Menge der Einwegverpackungen wunschgemäß ein, um in den Folgejahren langsam aber stetig wieder anzuwachsen. Mit automatisierten Rücknahmesystemen der großen Handelsketten wurde das Einwegsystem der Getränkeindustrie wieder billiger als Mehrweg. Die PET-Einwegflasche (Polyethylenterephthalat, in Faserform Polyester genannt) wurde zur Gewinnerin beim Dosenpfand. Preisgünstig bei geringem Materialeinsatz und ideal recyclebar trug sie zum erneuten Absinken der Mehrwegquote bei. Schwere leere Glasflaschen müssen transportiert, gereinigt und neu etikettiert werden – PET-Flaschen nicht und an der gesunkenen Trinkkultur stört sich der Geiz-ist-geil-Kunde auch nicht. Er fragt: wenn schon Pfand, warum dann Mehrweg? So hat die Einwegquote inzwischen die des Mehrwegs wieder überholt.

Ökologisch am zuverlässigsten sind die deutschen Biertrinker bei der Glasflasche geblieben, lasst sie uns loben.

Auch der stofflichen Nutzung, also der Wiederverwertung des Restmülls sind wirtschaftliche Grenzen gesetzt. Aus Recyclinggranulat gepresste Gartenbänke kommen PR-mäßig gut, aber wirtschaftlich ist das auf Grund des hohen Trennaufwandes zumindest beim Haushalts- und Gewerbemüll und mangelnden Bedarfs so großer Mengen an Gartenbänken noch nicht. Die Deutschen sind vermutlich die eifrigsten Mülltrenner der Welt, dennoch war die bisherige Abfallpolitik nur eingeschränkt erfolgreich. Coffee-to-go-Becher (also „C2g“ – soeben erfunden!) führen zu neuen riesigen Abfallbergen, die noch nicht sinnvoll beherrscht werden. Auch die legendäre „Abwrackprämie“ für PKW von 2009 war entsorgungstechnisch und vor allem energiebilanziell eine falsche Entscheidung. Sie führte zur Vernichtung brauchbarer Güter und trieb mit künstlich erzeugter Nachfrage den Energiebedarf an.

Bevor wir aber kritisieren und unzufrieden werden, sollten wir uns vergegenwärtigen, dass wir im Grunde müllmäßig auf einer Insel der Glückseligen leben.

Seit den siebziger Jahren leidet die Region um Neapel am permanenten Müllnotstand, 1997 wurde die letzte Deponie wegen Überfüllung geschlossen. Der Widerstand der Bürger gegen neue Deponien und den Bau von Verbrennungsanlagen führte zu riesigen Müllbergen und illegalen Deponien.

Bella Italia

Die Mafia, in diesem Fall die Camorra, verdient prächtig an illegaler Mülllagerung und zwar an allen Fraktionen – Haus- und Gewerbemüll, Klinikmüll, Giftmüll, sogar radioaktive Abfälle wurden gegen Gebühr dubioser Auftraggeber in der Region verbuddelt. Man schätzt die illegal abgelagerte Müllmenge auf etwa 300.000 Tonnen.

Was sich auf den Straßen anhäuft, wird hin und wieder verbrannt, um Platz zu schaffen oder Protest zu zeigen. „Terra dei Fuochi“, „Land der Feuer“ heißt die Gegend nördlich von Neapel. Über theoretische Diskussionen zur Krebsgefahr durch Glyphosat können die Leute hier nur milde lächeln. Die Krebsrate in der Gegend ist mehr als dreimal so hoch wie im nationalen Durchschnitt. Die Feuer setzen ätzende Dioxinwolken frei, das Grundwasser ist verseucht, Schwermetalle und Gift sind im Erdreich versickert. Tomaten und Pfirsiche wachsen auf diesem Terrain und dies natürlich nicht zur Zierde. Forscher sprechen vom „Dreieck des Todes“ zwischen Neapel, der nördlich gelegenen Kleinstadt Caserta und Nola im Osten.

Einige Sonderzüge fuhren in deutsche Müllverbrennungsanlagen (MVA), was von deutschen Grünen heftig als Müllimport gegeißelt, aber von einem grünen italienischen Umweltminister maßgeblich mit verursacht wurde.

In Summe ist das Ganze nicht nur eine Schande für ein entwickeltes Industrieland wie Italien, auch die EU-Umweltbürokratie versagt seit Jahrzehnten auf der ganzen Linie. Sie bleibt ihrem Grundsatz treu, sich nicht um die wichtigen Sachen zu kümmern, sondern Selbstbestätigung in der Gängelung der Bürger zu finden wie im Vorschreiben von Beleuchtungsmitteln oder der Regulierung der Leistung von Staubsaugern. Auch eine 20 Millionen-Euro-Strafe, die der Europäische Gerichtshof verfügte, brachte natürlich keine Abhilfe. Ansonsten beherzigt die EU die „Omerta“ genannte Schweigepflicht der Camorra. Die US-Amerikaner gehen fürsorglicher mit ihren Bürgern um. Die in der Region Neapel stationierten US-Truppenangehörigen dürfen nicht außerhalb der Stützpunkte wohnen und der Teil der Lebensmittel, der nicht aus dem Ausland kommt sowie die Trinkwasserqualität werden akribisch überwacht.

In der Dritten Welt sind die Gefahren nicht nur durch die Gifte, sondern schon durch die riesigen Müllberge gegeben und es kann zur Katastrophe kommen, wenn wie in Sri Lanka ein 90 Meter hoher Müllberg ins Rutschen kommt.

Reinigendes Feuer

Damit es zu diesen gigantischen Ansammlungen von Müll nicht kommt, wäre die thermische Entsorgung in entsprechend ausgelegten Verbrennungsanlagen hilfreich. Sicherlich könnten auch Rotteverfahren helfen, die aber eine sehr korrekte Mülltrennung erforderlich machen und nur beim biogenen Anteil funktionieren.

In Deutschland verrichteten 2014 etwa 60 Müllverbrennungsanlagen und 35 Anlagen zur Verbrennung oder Mitverbrennung von Ersatzbrennstoff (EBS) ihre unattraktive aber nötige Tätigkeit. EBS wird durch Aufbereitung von Müll gewonnen, indem man heizwertreiche Fraktionen abtrennt und damit energetisch hochwertigen Brennstoff gewinnt. Holz-, Papier- und Stoffreste, biogene Anteile und Kunststoffe ergeben ein feuriges Gemisch, das selbst in Zementwerken einsetzbar ist. Unter den strengen Bedingungen der 17. Verordnung des Bundesimmissionsschutzgesetzes (BImschV) verbrennt der größte Teil von dem, was wir in grauer und gelber Tonne sammeln.

Gegenüber der Kohle-, Öl- oder Gasverbrennung verschärfte Emissionsgrenzwerte sichern die Umweltverträglichkeit. Die vorgeschriebenen Verbrennungstemperaturen oberhalb 850 Grad Celsius, bei halogenorganischen Stoffen sogar über 1.100 Grad zerstören Dioxin und andere Gifte. In den Angaben zum Energiemix erscheint die Energiegewinnung durch Müll mit einem relativ konstanten Anteil von etwa fünf Prozent meist unter der verschämten Bezeichnung „Sonstige“. Sollte sich dieser Anteil durch höhere Verwertungsquoten verringern, sinkt auch dieser Anteil konstanter und regelbarer, mithin systemstabilisierender Einspeisung.

Obwohl weitgehend Übereinstimmung besteht, dass wir von geschlossenen Stoffkreisläufen noch weit entfernt und moderne Verbrennungsanlagen umweltverträglich sind, bleiben Kampagnen gegen MVA bewährte Spielwiesen grüner Bürgerinitiativen. Sie treten zumeist als NIMBY-Anwohner („not-in-my-backyard“) auf und verfügen über bekanntes Kampfvokabular wie Dioxinschleuder, Menschenvergifter und ähnliches. Damit erreichen sie in großen Bevölkerungskreisen Ängste, die nur noch mit dem Neubau eines Atomkraftwerks neben dem Dorfanger zu toppen wären. Dabei wissen die Aktivisten sehr genau, dass hundertprozentige Müllverwertung nicht möglich ist und vergessen geflissentlich zu erwähnen, dass deponieren verboten und die so genannte „kalte Rotte“ durch Methanemission sehr „klimaschädlich“ ist.

Bürokratischer Müll

Um einem Anstieg der erheblichen Müllmenge in Deutschland (über 40 Millionen Tonnen pro Jahr) Einhalt zu gebieten, bastelt die Bundesregierung unterdessen an einer neuen Gewerbeabfallverordnung, die auch einige Details neu regelt, beispielsweise, was unter „Verpackung“ zu verstehen ist. Teebeutel, Wursthäute und Grablichtbecher gehören nicht dazu. Heftklammern und Dosierhilfen von Waschmitteln allerdings doch, wenn sie Teil des Verpackungsverschlusses sind. Bei Blumentöpfen ist zu differenzieren: Verbleibt die Pflanze Zeit ihres Lebens darin, ist es keine Verpackung, sonst schon. Das Verpackungsrecht tendiert in seiner Komplexität hin zum deutschen Steuerrecht, nur dass die entsprechende Beraterinfrastruktur noch fehlt. Deshalb wird die Einrichtung einer zentralen Stelle durch Industrie und Handel vorgesehen, um fairen Wettbewerb und konsequenten Vollzug als Registrierungs- und Standardisierungsstelle zu sichern. Wer diese Einrichtung wiederum kontrollieren soll, ist offen. Nicht dagegen die Finanzierung, die dem Verbraucher dann indirekt über die Preise auferlegt wird. Das ganze Verbürokratisierungsgesetz muss nicht durch den Bundesrat, was zumindest die Menge des Kommunikationsmülls reduziert.

Die Frage, wie künftig mit Gesetzes- und Verordnungsmüll (ganz zu schweigen vom Ideologiemüll) zu verfahren ist, bleibt offen. Verbrennung ist nur sehr eingeschränkt möglich, Kompostierung auch. Schließlich ist es die Existenzgrundlage einer vor allem sich selbst verwaltenden und wachsenden Ministerialbürokratie, die davon sehr auskömmlich lebt.

Die Italiener in Kampanien hätten gern diese Probleme . . .

 




Bemerkungen zur April-Kältewelle in Mitteleuropa

Während des vergangenen Winters lag der hemisphärische Kältepol wie auch während der Vorwinter im kanadisch-grönländischen Sektor der Arktis. Auffällig dabei war, dass die jahreszeitlich bedingte Abschwächung desselben verzögert war. Selbst derzeit werden über der nördlichen Hudson-Bay im 850-hPa-Niveau immer noch großräumig Temperaturwerte unter -25°C angetroffen. Immer wieder erfolgten daraus Kaltluftvorstöße über Nordskandinavien hinweg bis nach Russland. In Nordskandinavien dürfte es also eines der kältesten Frühjahre jemals gegeben haben, aber weil das dem Establishment nicht passt, hört man davon nichts.

Der Kältepol ist aber immerhin kleiner geworden. Und dennoch, schon zu Anfang des Monats, als noch niemand etwas Böses ahnte, hatte sich der Autor Sorgen gemacht, ob nicht ein solcher Kaltluftvorstoß direkt nach Mitteleuropa erfolgen könnte. Das ist im April natürlich völlig normal, und es war keine Frage, OB es dazu kommt, sondern WANN. Es war aber klar, dass ein solcher Kaltluftausbruch nach Mitteleuropa in diesem Jahr besonders intensiv ausfallen würde. Infolge des bis dahin recht warmen Frühjahres war die Natur viel weiter mit dem Austrieb als in anderen Jahren. Frostschäden waren also unvermeidlich. Im Garten des Autors hatte die Apfelblüte bereits eingesetzt, besondere Schäden konnte er aber nicht feststellen (Temperatur in seinem Garten am Morgen des 21. April 2017 etwa -3°C bis -4°C). Anders sah es beim Walnussbaum aus. Auch der hatte bereits ausgetrieben samt der Pollenträger, aber ausnahmslos alle grünen Spitzen hingen am nächsten Tag schwarz und schlaff herab. Das war diesmal das dritte Jahr nacheinander, dass dieser Baum abgefroren ist.

Die Wetterlage vom 20. bis 23. April 2017

Bild 1 zeigt die Wetterlage vom 23. April, 00 Uhr UTC (02 Uhr MESZ; Quelle). Der zugehörige 500-hPa-Trog (links) ist stark ausgeprägt, im 850-hPa-Niveau (rechts) zeigen sich Temperaturwerte unter -10°C. Der Trogvorstoß erfolgte direkt von Norden her über Skandinavien hinweg. Die Kaltluft konnte also den kürzestmöglichen Weg nehmen und hat sich daher auf dem Weg nach Süden kaum erwärmt. Außerdem lag in Skandinavien noch recht viel Schnee, wie Bild 2 zeigt:

Bild 2: Schneebedeckung Nordeuropa vom 23. April 2017. Quelle.

Rekordwerte – wirklich?

Kurz gesagt: Ja und nein! (Wenn es in der Wissenschaft doch nur so eindeutige „Ja“- und „Nein“-Antworten gäbe, wie es uns die Alarmisten immer vorgaukeln!). Zunächst einmal: In der mittleren Troposphäre war der Höhepunkt des Kaltluftvorstoßes am 23. April schon überschritten. Aber erst der nachfolgende Hochkeil brachte verbreitet Aufklaren und fast Windstille, so dass die Ausstrahlung erst in der Nacht zum 23. April die Temperatur in Bodennähe auf das Niveau von Rekordwerten sinken ließ (wo war eigentlich der CO2-Deckel, von dem Politik und Medien immer schwafeln?). Für einen 23. April mögen es Rekordwerte gewesen sein, aber das ist völlig unerheblich. Zu erinnern ist hier an einen von der Wetterlage her ähnlichen Kaltluftvorstoß von Norden her – aber erst um den 10. Mai – also genau pünktlich zu den Eisheiligen. Schauplatz ist das Jahr 1978, als zwei Wochen später im Frühjahr (!) ähnliche Absolutwerte der Temperatur wie dieses Jahr im April aufgetreten waren. Der Erinnerung des Autors nach war aber damals das Frühjahr ziemlich kalt ausgefallen, so dass die Natur etwa auf dem Stand dieses Jahres gewesen sein dürfte. Aber: Es geht sogar noch kälter!

Bild 3 zeigt die Wetterlage vom 11. Mai 1978, 00 Uhr UTC. Diese Karten waren jedoch nur bei Wetterzentrale.de verfügbar, daher die ganz andere Darstellung. Man erkennt aber auch hier das Muster: Ein mit hochreichend kalter arktischer Luft angefülltes Höhentief zog genau über Deutschland hinweg, also etwas weiter westlich als der diesjährige Trog. Über Berlin wurde am 11. Mai 1978 im 850-hPa-Niveau eine Temperatur von -12,3°C gemessen – und das war ein absoluter, weder davor noch danach je wieder erreichter Rekord. In der Re-Analyse erscheint der Temperaturgegensatz zwischen der Trogkaltluft und der umgebenden wärmeren Luft verwischt, so dass die -10°C-Isotherme nicht ganz bis nach Ostdeutschland reicht.

Bild 3: Wetterlage vom 11. Mai 1978. Quelle

Der beschriebene Vorgang ist natürlich Wetter – und nicht Klima. Auffällig war, dass in den medialen Wetterberichten, also am Wochenende um den 16. April, in keiner Weise auf den drohenden Frost hingewiesen worden ist. Es hieß nur, es „wird kälter“. Dem Autor ist in diesem Zusammenhang ein Blog aufgefallen, auf dem bereits eine Woche im Voraus auf diesen Kaltluftvorstoß hingewiesen worden war. Der Beitrag zeichnete sich wie alle Beiträge auf diesem Blog durch eine eindrucksvolle Zusammenstellung aller relevanten Karten und Graphiken aus. Der Beitrag steht hier. (Der Autor empfiehlt, immer mal wieder auf dem Blog vorbeizuschauen (https://wobleibtdieglobaleerwaermung.wordpress.com/).

Fazit: Es war sicher sehr kalt, aber es war sicher keine Rekordkälte. Und genauso normal oder anomal wie die Hitze im Jahre 1968 (!), als um diese Zeit im April bereits Heiße Tage mit Maxima über 30°C aufgetreten waren.

Im Übrigen: Eigentlich hätte doch die Klimaille in Politik und Medien laut jubeln müssen über die Kälte! Schließlich soll doch die Wärme die große Katastrophe sein…

Aktualisierung vom 27.4.2017:

Dem beschriebenen Kaltluftvorstoß von Norden her über Skandinavien hinweg folgte gleich noch ein zweiter, diesmal aber mehr aus Nordwest über die Nordsee hinweg. Infolge des maritimen Einflusses war es nicht ganz so kalt, aber für Nachtfrost in klaren Nächten in Norddeutschland hat es wieder gereicht.

Anders war die Lage diesmal in Süddeutschland. Dieser neue Kaltluftausbruch stieß auf schon recht warme Luft über Südosteuropa. Diese Wetterlage führt oft zur Entwicklung der so genannten Vb-Tiefs (hier steht eine gute Erklärung, was das ist), was im Frühjahr durchaus vorkommt. In diesem Falle kam zwar die Kaltluft, wie gesagt, über die Nordsee, doch war deren Ursprungsgebiet der gleiche extrem kalte Kaltluftkörper über Nordeuropa.

Die entsprechende Wetterlage zeigt Bild 4. Es bildete sich eine sehr markante, von Südwest nach Nordost verlaufende Luftmassengrenze, wobei dynamische Hebungsantriebe in Süddeutschland für lang anhaltende Aufgleitprozesse sorgten, d. h. die warme Mittelmeerluft glitt auf die Kaltluft auf. Ein eigenständiges Tiefdruckgebiet löste sich jedoch diesmal nicht ab, so dass der Prozess mehrere Tage lang über Süddeutschland stationär verharrte. Dabei sank die Schneefallgrenze schließlich unter 500 m, was bei dem schon recht weit fortgeschrittenen Pflanzenaustrieb zu erheblichem Schneebruch führte.

Wie die numerischen Rechnungen zeigen (Stand: 29.4.2017) ziehen die nächsten Wettersysteme von Westen und Südwesten heran. Nach kurzer Pause dürfte sich also das niederschlagsreiche Wetter fortsetzen, wenngleich jedoch auf einem deutlich höheren Temperaturniveau. Auch im westlichen Deutschland, das im Frühjahr von den ganzen Niederschlagsvorgängen außen vor gelassen wurde, dürfte es dann ergiebiger regnen.

Zum Schluss noch zwei Bilder aus dem Garten des Autors am Morgen des 28. April 2017. Es sah dort recht marode aus, aber weder der Frost noch der nachfolgende Schnee richteten Schäden an. Der blühende Apfelbaum auf dem Bild links hat den ganzen Vorgang ohne erkennbare Schäden überstanden.

Schlussbemerkung: Wie unter dem o. g. Link erläutert, ist dieser Typ Wetterlage häufig mit erheblichen Niederschlagsmengen verbunden. Im Garten des Autors waren es während der drei Tage fast 70 Liter pro Quadratmeter, was aber eher am unteren Ende der aufgetretenen Mengen liegen dürfte. Der Schneebruch ist zwar ein Ärgernis, aber hätte die Schneefallgrenze deutlich höher gelegen, hätte es mit Sicherheit trotz der durch das bislang trockene Frühjahr niedrigen Wasserstände zu erheblichem Hochwasser mit einer deutlich höheren Schadensbilanz geführt.

Dipl.-Met. Hans-Dieter Schmidt




CO2 neutral in die Zukunft der Armut zurück segeln

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Wie inzwischen in der Politik, wird auch dort jeder neue Messias zuerst einmal frenetisch bejubelt, wie es der Redakteur schon fast wie bei einer Stelle im Neuen Testament beschrieb:
WESERKURIER: [3] … Lauter Jubel brandet drauf. Die Menschen stehen am Ufer des Europahafens und applaudieren, rufen, jauchzen. Der Ökofrachtsegler „Avontuur“ fährt in den Hafen der Bremer Überseestadt ein.

Der Durchbruch im Ökotransport: Frachtsegler

Was war dazu der Anlass? Ein Durchbruch in der Ökogeschichte! Der leibhaftige Beleg, dass ein Frachtsegler (wieder) von Mittelamerika bis nach Bremen segeln kann, und das erstmals in der jüngeren Weltgeschichte wieder mit Bioware.
WESERKURIER: [3] … „Wir haben doch gerade bewiesen, dass es möglich ist, eine Fracht klimafreundlich über weite Seestrecken zu transportieren“… Mit dem Segelschiff „Avontuur“ erreichte nach Angaben der Verantwortlichen des Projekts Timbercoast erstmals ein Segelschiff mit Biokaffee die Stadt,
… diesmal sogar erweitert um den über lange Zeit verschmähten und nur noch aus sehr alten Filmen und fernen Ländern bekannten, ökogerechten „human power“-Weitertransport an Land:
WESERKURIER: [3] … Kurz vor 14 Uhr wurde dann auch der erste 69 Kilogramm schwere Kaffeesack der Bremer Marke Slokoffie mit einem Seilnetz an Land gehoben. In Kooperation mit dem Fahrrad-App-Anbieter „Bremen Bike it!“ wurden die Kaffeebohnen entladen und in die Rösterei Vollers am Speicherhof gebracht. Zahlreiche Freiwillige transportierten mit antiken Sackkarren aus dem Hafenmuseum und Lastenrädern die Säcke ins Lager. Muskelkraft statt Maschinen und Motoren …

Warum man die Möglichkeiten der über Jahrhunderte erfolgreich durchgeführten Segelschifffahrt neu mit einem uralten Frachtsegler beweisen muss, wird sich nicht jedem erschließen. Beim Klimawandel und der Ökofortbewegung scheint man aber zu viel an altbekannter Erfahrung verloren zu haben, weshalb auf diesem Gebiet so ziemlich alles neu erforscht und mit viel Aufwand ausprobiert werden muss. Gut, der anschließende Landtransport mit Lastenrädern gilt inzwischen auch amtlich als super-modern und dass antike Sackkarren mit dem Slogan „Muskelkraft statt Maschinen und Motoren“ unterstützen, kann ein Vorgriff auf eine noch kommende „Öko-Erneuerer Bewegung“ sein. Nicht unwahrscheinlich, dass Frau Hendricks diese neue Öko-Transport-Idee für den wirklich ganz CO2-freien Transport zum Klimaschutz als förderwürdig aufnimmt, zuerst ganz genau mit vielen Studien erforschen lässt um ihn dann flächendeckend zu sponsern.

Man mag zu dieser klimarettenden Tat stehen wie man will, doch ob es das ist, was sich der deutsche Bürger als Zukunft vorstellt, soll anhand einer kapitalistischen Betrachtung ergründet werden.

Hinweis: Eine solche Betrachtung wurde bereits im Artikel:
EIKE 25.04.2017: [6] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr,
durchgeführt. Anhand dieser soll nur wieder ergänzend gezeigt werden, welcher offensichtliche Kostenirrsinn in den Klimaaktivitäten hinterlegt ist und diese sich vom Bau von Kirchtürmen zur Hagelabwehr in keiner Weise unterscheidet.

Kostenschätzung der halben Reise mit Lastentransport

Der Frachtsegler war mit 15 Personen Besatzung 8 Monate unterwegs. Auf der Rückfahrt hat er von Honduras 20 Tonnen Bio-Kaffeebohnen und 2 Fässer Rum sowie weitere mit Gin nach Kiel transportiert.
Für die Abschätzung wird weggelassen, dass alleine das Herrichten des Frachtseglers durch 160 Freiwillige 1,6 Millionen EUR gekostet hat [5], also nicht wenig Verzinsung bindet. Auch der wegweisende, CO2-freie Weitertransport in Kiel durch Muskelkraft vieler Freiwilliger mit antiken Sackkarren wird kostenmäßig nicht berücksichtigt. Sehr wohlwollend werden auch die erheblichen Aufwendungen für die Hinfahrt nach Honduras weggelassen, denn man hätte da auch schon Fracht transportieren können.

Doch auch ohne dies ist das Ergebnis ökonomisch ein Desaster und zeigt überdeutlich, warum diese Art der Frachtsegelei schon vor längerer Zeit sofort aufgegeben wurde, als Alternativen aufkamen.

Für die Rücksegeltour bleiben an Aufwendungen:
-Gesamtreise: 15 Personen, Reisedauer 8 Monate = 120 MM
-Rückreisedauer der Lastsegel-Fahrt: 60 MM, zzgl. anteiligem Jahresurlaub von 4 Wochen, ohne Krankheitszeiten
-Mindestlohn: 8,84 EUR/h
Netto-Lohnkosten der Rückreise-Lastsegel-Fahrt: 60 MM x 30 Tage x 10 h x 8,84 EUR/h = 159.120 EUR

Lässt man den Schnaps als Beiladung beiseite, dann ergeben alleine die gesetzlichen Mindestlohnkosten für jedes Kilo Kaffee einen Betrag von 8,9 EUR / kg. Man darf also von wahren Frachtkosten im Bereich erheblich über 10 EUR / kg, weit realistischer jedoch von erheblich über 20 EUR / kg Kaffee ausgehen.

Der CO2-Nutzen

Spaßeshalber ist anbei der CO2- Ausstoß der Transportfahrt mit einem Tanker gelistet:

Bild: CO2-Ausstoß einer Frachtfahrt von Honduras nach Bremen. Quelle: ARKTIK CO2-Logistikrechner

Man betrachte die Genauigkeit der CO2-Berechnung auf fünf Stellen und Cent. Es ist eine besondere Eigenschaft der Klimawandel-Forscher, dass ihre Ergebnisse extrem genau sind (da Computer ohne extra Einstellung nicht runden und in dieser Zunft eine unübertroffene Computergläubigkeit herrscht), obwohl beispielsweise der CO2-Forcingwert aktuell eine gelistete Spanne zwischen 0,15 und 6 Grad pro CO2-Verdopplung ausweist und in inzwischen bei unter, oder bis zu ca. 1 °C vermutet wird (Anm.: „offiziell“ gilt der Sensitivitätswert aufgrund alter IPCC-Berichte von 3°C) .

Bild: Spanne der CO2-Sensitivität nach aktuellen Studien. Quelle: [7]
Es wird auf 4 t CO2 aufgerundet und mit dem viel zu hohen IPCC-Forcingwert von 3°C gerechnet. Damit berechnet sich der „Klimawandel-Einfluss“:

4 Tonnen CO2 entsprechen 0,51 x 10-9 ppm Atmosphärenbestandteile.
Auf 1 Millionen Luft-Moleküle mit anteilig 400 CO2-Molekülen wären durch einen kraftstoffgebundenen Seetransport also 0,0000005 Stück CO2-Moleküle dazu gekommen.
Der „Klimanutzen“ der alternativ durchgeführten Segelfracht beträgt rein rechnerisch:
5,5 x 10-12 °C, ausgetippt: 0,000000000005 °C (mit dem wahrscheinlichen Forcingwert davon etwa 1/3).
Und somit zeigt sich wieder, was im Artikel zur Berliner Stadtreinigung [6] bereits ausgeführt wurde: Beim Klimawandel gibt es keine Logik mehr, sondern Nachplappern und blanke Hysterie, verbunden mit einer tiefen Ökogläubigkeit:
WESERKURIER: [3] … Der Kaffeetransport mit der „Avontuur“ produziere übrigens mindestens 90 Prozent weniger Kohlenstoffdioxid gegenüber den herkömmlichen Lieferwegen per Flugzeug oder Containerschiff

Wirklich niemand hat etwas davon, außer ein paar Aktivisten ein ruhigeres Gewissen

Alleine damit ist wieder der Unsinn dieser Art Ökoidealismus belegt. Niemand hat davon wirklich etwas. Weder die Bauern in Honduras, denen schon ein geringer Teil der horrenden Frachtkosten weit mehr helfen würde, noch die vielen Transportmitarbeiter (sofern sie und ihre Familien sich davon ernähren müssten und es nicht nur als „Öko-Lustfahrt“ betrachten). Das Klima schon gar nicht und dem Eigner kann man sowieso die baldige Pleite vorhersagen, sofern sich dafür nicht schnell zusätzliche Sponsoren finden.

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Dafür ist Armut eine Verheißung [4], welche von Medien und (vielleicht) auch Bürgern inzwischen – noch mangels Erkenntnis – begrüßt wird.
WESERKURIER: [3] … die neben Abenteuern den nachhaltigen Handel auf See erlernen. Sie verbinde die Begeisterung für das Projekt des emissionsfreien Seetransports und vor allem die Nachhaltigkeit. Die See hat die Besatzungsmitglieder gezeichnet: Sie sind braun gebrannt, die Haare durch die Seeluft wuschelig und das Salzwasser heller geworden, mehrere Männer tragen Vollbart.
Leider beschreibt und erklärt dies viel (über den Zeitungsredakteur), aber bestimmt nicht das wahre Frachtsegelleben. Wer dieses wirklich erfahren möchte, sollte in alten Biografien nachlesen, was für eine schlimme Zeit es für die einfachen Matrosen war, vergleichbar den früher am Existenzminimum lebenden Knechten (und Mägden) bei den Bauern.

Dank an ScienceScepticalBlog für den Hinweis: [1] Avontuur: Die Zukunft der Frachtschifffahrt?

Quellen

[1] Science ScepticalBlog: Avontuur: Die Zukunft der Frachtschifffahrt?

[2] FOCUS ONLINE: Kaffee, Gin und Rum: Ökosegler „Avontuur“ wieder in Bremen

[3] WESERKURIER: Ökosegler „Avontuur“ legt am Europahafen an

[4] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[5] NDR.DE: Ahoi: Öko-Frachtsegler „Avontuur“ sticht in See

[6] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[7] Climate Etc: Climate models versus climate reality




Sind die behaup­teten globalen Rekord-Tempera­turen haltbar?

Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen:

Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“.

Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik:

Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben.

Genauigkeit

Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben.

Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird:

http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf

Im Abschnitt 4.1.3 im o. g. Link liest man:

4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C…

Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C.

In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die Original-Instrumente kaum noch für eine Kalibrierung verfügbar.

Präzision

Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik.

Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen.

Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier).

Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05.

Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden.

Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“

Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen.

Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen.

Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2:

Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“.

Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten Temperatur-Bandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert!

Konsequenzen

Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind!

Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird.

Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem Temperatur-Zeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchst- und Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen.

Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt.

[*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.]

Summary

Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen.

References

Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41

Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181

Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6

Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures-valid/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F.




Beeinflussungs­grad der deutschen Jahresmittel­temperatur durch städtische Wärme­inseln erstmals flächen­deckend quanti­fiziert

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017.

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Erkennung anthropogen verursachter Anomalien der Temperatur in der Luft, am Boden und im Grundwasser in Deutschland

Menschliche Aktivitäten beeinflussen direkt die umgebenden Luft-, Oberflächen- und Grundwasser-Temperaturen. Das bekannteste Phänomen dieser Art ist der städtische Wärmeinsel-Effekt, welcher vor allem in großen und dicht besiedelten Städten untersucht worden ist. Diese Studie erkundet den anthropogenen Einfluss auf das thermische Regime nicht nur in ausgesuchten Stadtgebieten, sondern im landschaftsweiten Maßstab für Datensätze mittlerer jährlicher Temperaturen in Deutschland in drei verschiedenen Bereichen: gemessene Lufttemperatur, gemessene Temperatur des Grundwassers und aus Satellitenbeobachtungen abgeleitete Temperatur der Landoberfläche. Zieht man nächtliche Beleuchtung als Indikator ländlicher Gebiete heran, kommt die anthropogene Wärmeintensität ins Spiel. Diese ist auf jeden Datensatz anwendbar und zeigt die Differenz zwischen gemessenen lokalen Temperaturen und der mittleren ländlichen Hintergrundtemperatur. Dieses Konzept ist analog der etablierten städtischen Wärmeinsel-Intensität und anwendbar auf jeden Messpunkt oder Pixel innerhalb eines großen, sogar globalen Untersuchungsgebietes.

Für alle drei untersuchten Datensätze gilt: die anthropogene Wärmeintensität nimmt mit zunehmender nächtlicher Beleuchtung zu, sie nimmt ab bei zunehmender Vegetation. Die Bevölkerungsdichte hat dagegen nur geringe Auswirkungen. Die oberflächennahe anthropogene Wärmeintensität kann im untersuchten Gebiet (1 km X 1 km) nicht mit bestimmten Landschaftsformen und Klassifizierungsystemen in Verbindung gebracht werden. Aber sowohl Luft als auch Grundwasser zeigen gesteigerte Wärmeintensitäten bei künstlichen Oberflächen. Alles in allem scheint die Temperatur des Grundwassers am stärksten auf menschliche Aktivitäten zu reagieren, obwohl die unterschiedlichen Bereiche teilweise durch nicht in Relation stehende Prozesse beeinflusst werden. Anders als die Temperaturen an der Landoberfläche und der bodennahen Luftschichten ist die Grundwasser-Temperatur in kultivierten Gebieten ebenfalls erhöht. Die höchste anthropogene Wärmeintensität in Deutschland findet sich mit 4,5 K an einem Braunkohle-Tagebau bei Jülich, gefolgt von drei großen Städten (München, Düsseldorf und Nürnberg) mit jährlichen mittleren anthropogenen Wärmeintensitäten >4 K. Alles in allem lassen sich anthropogene Wärmeintensitäten > 0 K und damit städtische Wärmeinseln in Gemeinden bis hinab zu einer Bevölkerungsdichte finden.

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung des Abstract am Ende Chris Frey EIKE




Klima und CO2: Ich hätte da mal ein paar Fragen…

Nun ist es eine Binsenweisheit, wenn man nicht weiter weiß: wo steht etwas dazu geschrieben, und wen kann man fragen. Geschrieben steht viel, allerdings auf Deutsch außer auf diesem und sehr wenigen anderen Blogs nichts, was einem weiterhilft, im Gegenteil. Darum übersetze ich ja so gerne Texte für das EIKE, denn in der angelsächsischen Blogosphäre steht viel.

Aber leider häufig so fachlich, dass es nicht kurz und schon gar nicht griffig darzustellen ist, Also stelle ich jetzt mal ein paar Fragen:

1. Das Leben auf unserem Planeten beruht auf drei grundlegenden Säulen. Wenn nur eine dieser Säulen wegbricht, wird das Leben auf der Erde sehr schnell verschwinden/vernichtet/aussterben. Sauerstoff gehört nicht dazu, denn bei der Entstehung des Lebens gab es den noch gar nicht.

Die drei Säulen sind: a) Sonnenlicht, b) Wasser und c) Kohlenstoff. Die Säulen Sonnenlicht und Wasser sind sicher über alle Diskussionen erhaben. Anders sieht es mit Kohlenstoff aus, wie man weiß.

Darum lautet meine erste Frage:

Kohlenstoff ist eine der tragenden Säulen des Lebens auf der Erde insgesamt. Er steht dem Leben aber nur in der Luft in gebundener Form als CO2 zur Verfügung. Warum wird dieser Urstoff des Lebens als Giftstoff bezeichnet? Und noch schlimmer: Warum wird dies schon unseren Kindern in der Grundschule eingetrichtert?

2. Das bringt uns natürlich gleich zum Thema Klima, oder genauer Klimawandel. In Politik und Medien taucht sehr oft der Baustein „…in Zeiten des Klimawandels…“ auf. Darum lautet meine zweite Frage:

Seit wann haben wir denn „Zeiten des Klimawandels“? Etwa erst, seitdem der CO2-Gehalt der Atmosphäre nach einem lebensbedrohenden Minimum wieder etwas gestiegen ist? In der Schule haben wir doch alle gelernt, dass der Klimawandel so alt ist wie die Erde selbst.

3. Die Dämonisierung des Kohlenstoffes im Boden erreicht ja immer neue Höhepunkte. „Lasst es im Boden“ ist ein gängiges Schlagwort. Aber da erhebt sich für mich die dritte Frage:

Wie ist dieser Kohlenstoff (in welcher Form auch immer; Kohle, Öl, Gas…) überhaupt in den Boden gekommen? Bei der Entstehung der Erde war er doch in dieser Form noch nicht vorhanden.

Wo war er denn vorher?

4. Ich hätte gedacht, er war zu Beginn des Lebens in gebundener Form als CO2 in der Luft. Daraus folgt, dass der CO2-Gehalt zu Beginn der Entwicklung des Lebens viel höher gewesen sein muss.

Damit hängt meine vierte Frage zusammen:

Warum ist die Erde damals eigentlich nicht übergekocht, sondern hat den Grundstein für die Entwicklung des Lebens gelegt? Und warum soll sie heute bei einem viel geringeren CO2-Gehalt der Luft überkochen?

5. Vor dem Hintergrund der jüngsten Kältewelle in diesem April 2017 ergibt sich dabei eine fünfte Frage:

Es gab verbreitet handfesten Nachtfrost. Obstbauer und Gärtner mussten zu teuren Schutzmaßnahmen greifen, um ihre bereits begonnene Blüte dagegen zu sichern. Aber die Alarmisten aller Couleur verteufeln die Wärme als ultimative Katastrophe. Wo war denn deren Jubelgeschrei darüber, dass es nun endlich mal wieder kalt war?

Dabei möchte ich es erst mal belassen. Wie gesagt, Antworten auf diese Fragen habe ich nicht und erwarte ich nicht. Was ich erwarte, ist wieder sehr viel Wortgeklüngel. Aber anstatt von Antworten wäre das oder auch keine Antwort doch auch schon eine Antwort – oder?

Chris Frey, EIKE-Übersetzer




ENDLAGERUNG ? NEIN, DANKE!

Eine wichtige Rolle bei der Diskussion um Für und Wider Kernenergie spielt die Beantwortung der Frage, wie der nach einer Stilllegung von Kernenergieanlagen oder aber auch nach einem Kernschmelzunfall anfallende radioaktive Atommüll sicher entsorgt werden kann. In Deutschland (und u. a. auch Österreich) wird dabei die Bevölkerung durch Horrormeldungen in Angst und Schrecken versetzt, dass dies nur durch den Bau von Atommüll-Endlagern, die auf hunderte, ja bis auf eine Million von Jahren ausgelegt sein müssen, gewährleistet werden kann. Dies alles im Zusammenhang mit der Andeutung, dass dabei eventuell weite Landstriche über Jahrzehnte hinweg mit ’hochradioaktiven Spaltprodukten verstrahlt’ werden könnten (Ohne Ross und Reiter zu nennen, was man eigentlich unter ’hochradioaktiv’ zu verstehen hat). Es soll hier bewiesen werden, dass basierend auf rein logischen Überlegungen aber auch aus Erfahrungen im Umgang mit den drei einzigen Kernschmelzunfällen in der über 60-jährigen erfolgreichen Geschichte der friedlichen Anwendung der Atomenergie, solche Scenarios strahlenphysikalisch überhaupt nicht denkbar sind. Und daher eher im Reich der Fabeln angesiedelt werden müssen. Folgerungen aus diesen Überlegungen deuten darauf hin, dass Vorsorge eher über Jahre (wenn überhaupt) zu planen ist. Und dass für kostspielige Endlager über Jahrzehnte und mehr somit überhaupt keine Notwendigkeit besteht.

Als Folge einer Kernspaltung entsteht ein ganzes Bündel von Spaltprodukten (Isotopen), von denen ein Grossteil äußerst instabil ist und erst im Rahmen des Nachzerfalls ihren endgültigen stabilen Zustand erreicht. Einige davon benötigen dazu entsprechend ihrer Halbwertzeit bis zu Millionen von Jahren. Viele Politiker, Journalisten, kirchliche Würdenträger und damit auch ein Grossteil der Bevölkerung glauben nun fälschlicherweise, dass auch das letzte und das vorletzte Glied solch einer radioaktiven Zerfallskette für den menschlichen Organismus noch immer gefährlich werden könnte. Also auch noch nach Millionen von Jahren. So dass es nur folgerichtig sei, daher auch jedes einzelne davon für Jahrmillionen end zu lagern. Koste es, was es wolle. Bei der Gefahrenabwägung übersehen sie aber dabei, dass bei solchen Überlegungen auch entsprechende Erkenntnisse über die Einwirkung radioaktiver Substanzen auf einen lebenden Organismus miteinbezogen werden müssen. Erst dann kann nämlich, und dies schon allein durch rein ’logische’ Überlegungen, deutlich gemacht werden, dass im Gegensatz zu der obigen These solch eine strahlende Substanz schon lange vorher einen Schwellenwert erreichen hat, unter dem dann die weitere Strahlung für einen lebenden Organismus keine Rolle mehr spielen kann. Je nach Beantwortung dieser grundlegenden Fragen haben sich somit bei dem Bemühen um Lösung der Probleme der Atommüllentsorgung zwei Lager mit verschiedenen Strategien entwickelt.

Aus rein strahlenphysikalischen Gesetzmäßigkeiten ergibt sich zunähst, dass die nach einer Kernspaltung entstandenen noch äußerst instabilen Isotope während der Dauer ihrer Halbwertszeit (HWZ) auf die Hälfte, nach 10 bzw. 20 Zyklen auf nur noch rd. ein Tausendstel bzw. ein Millionstel ihrer Ausgangsmasse zerfallen sind. Dabei tragen 99 Prozent davon kaum zur Gefahrenbilanz bei, da die entsprechenden Teilchen bereits innerhalb einer Minute ihren stabilen Zustand erreicht haben (Also noch innerhalb des Reaktorkerns zerfallen sind). Für den Anteil an mittelfristigen Strahlern, die mit einer HWZ von Tagen und Monaten zerfallen (wie z. B. Jod-131 mit einer HWZ von 8,3 Tagen), bedeutet dies, dass diese Kategorie während eines halben oder ganzen Jahres praktisch schon nicht mehr vorhanden ist. Somit stellen sie beispielsweise nach einer (üblicherweise mehrjähriger) Lagerung im Abklingbecken eines Reaktors keine Gefahr mehr dar. Als Problemfall verbleibt somit nur die Entsorgung von Langzeitstrahlern, mit ihrem charakteristischen Vertreter Cäsium-137 (HWZ 30.17 Jahre). Aber auch (neben dem im Kühlmittel erzeugten Tritium) die erbrüteten Transurane (wie z. B. Plutonium, Americium usw.) sowie dem (zu einem Großteil) noch nicht aufgebrauchte schwach radioaktiv und langfristig strahlende Urananteil. Da letztere Isotope innerhalb eines abgebrannten Brennelements (im Vergleich zu den anderen Langzeitstrahlern) in viel größeren Mengen vorhanden sind, ist es angebracht, diese eventuel gesondert zu behandeln. Z. B., indem sie in einer Wiederaufbereitungsanlage von der übrigen Masse des Atommülls abgetrennt und entweder in Glaskokillen verschweißt oder als Mischoxid-Brenntoff in neueren Reaktortypen (z. B. der Generation IV) einer weiteren Verwendung zugeführt werden.

Wie bereits erwähnt, wird aber oft nicht berücksichtigt, dass bei all diesen Überlegungen (vor allem in Hinblick auf Langzeitstrahlern) auch noch eine strahlenbiologische Komponente miteinbezogen werden muss. Denn jede Strahlung (genauso wie etwa Sonnen- oder Röntgenstrahlen aber auch Hitze, Frost, Alkohol, verseuchte Nahrung oder ein Messerstich) kann organische Zellen zerstören (und manchmal u. a. auch das Erbgut beeinträchtigen). Die Natur hat aber andererseits Reparaturmechanismen bereitgestellt, die es ermöglichen, dass diese Zellen innerhalb eines gewissen Zeitrahmens immer wieder regeneriert werden. Das funktioniert allerdings nur solang, bis dieser Regenerationsprozess nicht überfordert wird. Es ist daher nur logisch, dass es somit einen ’Schwellenwert’ geben muss, ab dem die geringer werdende Strahlung für den Organismus nicht mehr gefährlich werden kann. Und somit im Meer der ’natürlichen Umgebungsstrahlung’ versinkt, an die sich der Körper schon lange gewöhnt hat. Was notwendig war, da ja der gesamte Planet Erde strahlenverseucht ist. Entweder durch Strahlung, die aus dem Weltall, dem Erdinneren oder aber auch aus der näheren Umgebung kommt (Ein Mensch strahlt in seinem Körper mit einer natürlichen Radioaktivität von rd. 9000 Becquerel). Bei der Beurteilung der Gefährdung durch Strahlung ist daher unstrittig, dass zwischen ’Strahlung’ und einer (für einen Organismus) ’gefährlichen Strahlung’ unterschieden werden muss. So dass, im Gegenteil zur in Deutschland vorherrschenden Meinung, für das letzte oder vorletzte zerfallende Teilchen kein ’Seidenpapier’ bereitgehalten werden muss. Was für die Allgemeinheit auch wesentlich billiger kommt.

Ja, es stellt sich sogar heraus, dass mit niedriger Dosis strahlende Subtanzen z. T. sogar gesundheitsfördernd wirken (Ein Prozess der als ’Hormesis bezeichnet wird, d. h. Erhöhung der Widerstands- und Wachstumsfähigkeit lebendiger Organismen). Schon im frühen 16. Jh. wurde dies (u. a. auch von Paracelsus) erkannt: ’Die Dosis bestimmt, ob etwas ein Gift ist’. Was natürlich auch allgemein gilt (und damit auch für radioaktive Strahlung). Zahlreiche Studien und Erfahrungswerte unterstützen diese These. So wurde mit Verwunderung festgestellt, dass die Sterblichkeitsrate der Überlebenden des Atombombenabwurfs von Nagasaki wesentlich geringer ausfiel als die bei einer jüngeren Kontrollgruppe. Oder auch die Tatsache, dass Strahlentherapien mit niedrigen Dosen zur Behandlung spezieller Erkrankungen zunehmend an Bedeutung gewinnen (Siehe Radon-Kuren in Bad Gastein).

Somit eröffnet sich in Kombination mit den obigen Erkenntnissen nun für den Begriff ’Halbwertszeit’ noch ein zweiter wichtiger Aspekt. Der in der Öffentlichkeit weniger bekannt aber wegen seiner Auswirkungen doch sehr bedeutsam ist. Man kann nämlich daraus auf die Geschwindigkeit schließen, mit der ein radioaktives Isotop zerfällt. Nimmt man dann noch zusätzlich an, dass dabei pro Zerfall in etwa ein einzelner ionisierender Strahl freigesetzt wird, so kann damit einer groben Schätzung die Obergrenze für eine maximal mögliche Anzahl von Strahlen pro Sekunde und Masse erstellt werden, also einer maximal möglichen Dosisleistung. Das heißt, dass Langzeitstrahler (wie beispielsweise Cäsium-137) zwar ihre Masse sehr langsam abbauen, dabei aber auch nur noch mit einer weitaus und wesentlich geringeren (konstanten und begrenzten) Dosisleistung strahlen können. Die ist z. B. im Vergleich zu Jod-131 entsprechend ihrer reziproken Halbwertszeiten in etwa um den (beachtlichen) Faktor 1327 kleiner ist (Solch eine auf Grund der langsamen Zerfallszeit geringe Anfangsdosisleistung ist übrigens auch der Grund, warum man sich unbesorgt auf einen Holzstuhl setzen kann, der aus Kohlenstoffatomen mit HWZ von über Millionen von Jahren besteht). Ausgehend von der niedrigen Dosisleitung hängt somit die Gesamtdosis einer strahlenden Quelle von der Menge dieser Substanz ab. Durch gezielte ’Portionierung’ der zu lagernden Menge an Atommüll kann somit gesteuert werden, ob solch eine Substanz unter- oder oberhalb des entsprechenden Schwellenwertes strahlt. Bei dieser Situation ist es daher sogar von Vorteil, wenn aus einer radioaktiv strahlenden Quelle flüchtige und daher wegen ihrer geringen Menge nun ungefährliche Gase in die Luft entweichen oder verdünnte Flüssigkeiten in die Erde versickern. Das entsprechende Motto zur Lagerung muss somit (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein (geringfügiges oder weitflächiges) Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre. Grob (und etwas flapsig) gesagt: Am besten wäre es, man lässt den Sarkophag in Tschernobyl einige Jahre abkühlen (um die mittelfristigen Strahler loszuwerden) und wirft dann in den verbliebenen Müll einen Sprengsatz. Dere sorgt dann (ähnlich wie bei Atombombentests) dafür, dass nun nur mehr eine stark verdünnte (und daher auch schwachradioaktive) Menge an Langzeitstrahlern über die Landschaft verteilt wird, und daher stark an Gefährlichkeit verliert. Natürlich kann man solch eine Verdünnung auch kontrolliert durchführen.

Zusätzlich wird damit aber auch verständlich, warum die Strahlengefahr auch davon abhängt, in welchen Zeitintervallen man einer Strahlenquelle ausgesetzt ist (Getreu dem Motto: ’Es ist ein Unterschied, ob man eine Flasche Schnaps innerhalb von 10 Minuten oder 10 Monaten trinkt’). Also wie effektiv die Regeneration der Zellen in diesen Zwischenintervallen wirksam werden kann.

Eine weitere Gefahrenminderung solcher Strahlenquellen ergibt sich übrigens auch aus der Tatsache, dass Radioaktivität gut messbar ist und somit eventuell vorhandene und noch immer strahlende Spots schnell lokalisierbar und daher auch leicht umgangen bzw. eliminiert werden können.

Wichtig für den Umgang der Menschen mit Strahlung ist auch die Tatsache, dass es (im Nachzerfallsbereich) einen wesentlichen Unterschied zwischen Gift und einem Langzeitstrahler gibt. Während Gift sofort wirkt, geben Letztere ihr Gefahrenpotential erst im Laufe der Zeit ab (Logischerweise den halben Anteil während der Dauer einer HWZ). Daher sollte auch das Verhalten der Menschen gegenüber Gefahren durch Strahlung vollkommen unterschiedlich sein. Leider ist das viel zu oft nicht der Fall. Vor einer radioaktiven Wolke (falls es so etwas überhaupt geben sollte) muss man nicht (wie vor einer Giftwolke) panikartig fliehen (Ein Sujet, das manchmal als ein Scenario für Katastrophenfilme genommen wird). Solch ein tragisches behördliches Fehlverhalten konnte nach dem Unglück von Fukushima festgestellt werden. Bei der Organisation der Evakuierung wurde ein viel zu überstürzter (aber von einem unzureichenden Strahlenschutzgesetz geforderter) Abtransport von Schwerstkranken aber auch Frischoperierten aus den umliegenden Krankenhäusern angeordnet. Mit der Folge dass es deshalb bei diesem Unglück, wie UNSCEAR bestätigt, paradoxerweise keine ’Strahlen-’, dafür aber (lt. Spiegel) rd. 500 ’Strahlenschutz’-Tote zu verzeichnen gab. Umgekehrt durften nach der Reaktorkatastrophe von Tschernobyl die Bewohner vom benachbarten Pripyat mit ihren Kindern noch bis zu 36 Stunden nach der Wasserstoffexplosion im Reaktorduckbehälter und der rd. 3 km hoch brennende Graphitsäule im stark verstrahlten Park spazieren gehen, bevor begonnen wurde, die Bevölkerung zu evakuieren. Ohne dass nennenswerte Opfer von den Behörden (und daher auch von UNSCEAR) gemeldet wurden. Bei solchen Zwischenfällen reicht es, darauf zu achten, dass strahlende Substanzen nicht all zu lange im oder am Körper verweilen (Z. B. Jod in der Schilddrüse oder Strontium in den Knochen). Man hat oft tagelang Zeit, um einen verstrahlten Bereich zu verlassen. Auch das Essen von z. B. mit Cäsium verseuchtem Wildfleisch oder Pilzen kann somit kaum als gesundheitlich bedenklich angesehen werden. Denn Cäsium ist nur in geringer Menge in solch einer Nahrung vorhanden und diese verbleibt nur mit vergleichsweise kurzer Aufenthaltsdauer im Körper. Beim Rückbau von Reaktoranlagen spielen daher auch angeblich ’stark verstrahlte Bauteile’ (wie z. B. Rohrleitungen mit geringfügigen Resten von radioaktiven Substanzen) keine wesentliche Rolle mehr.

In Deutschland ist es schon seit Jahrzehnten Praxis geworden, eine endgültige Entscheidung über den Standort (und damit den Bau) eines atomaren Endlagers aus rein parteipolitischen Überlegungen auf die lange Bank zu schieben. U. a. auch durch Verkünden von entsprechenden ’Moratorien’ (sprich ’angeblicher jahrzehntelanger Nachdenkphasen’). Und dies trotz mehrerer Erfolg versprechender Lösungsansätze. Wie z. B. das schon drei Jahrzehnte lang verfolgte und daher auch weit fortgeschrittene Projekt ’Salzstock Gorleben’, das mittlerweile schon an die 2 Mrd. EUR an öffentlichen Mitteln verschlungen hat. Wie auch üblich, wurden nach solchen Moratorien alle weiteren Neuansätze von dubiosen (weil nicht fachgerecht besetzten) Kommissionen verworfen, so dass man immer wieder von vorne anfangen musste. Natürlich konnte man sich diesen Luxus der Verschleppung von Entscheidungen nur leisten, da selbst bei fanatischen Kernenergiegegnern Zweifel aufkamen, ob Endlager in diesen Ausmaßen überhaupt nötig sein werden. Angesichts von Tatsachen, die zu erkennen lassen, dass die nach einer Kernspaltung produzierte Menge an hoch radioaktiver Strahlung schon nach wenigen Jahre unter die Grenze der natürlichen Umgebungsstrahlung fallen wird? Und dann aus Sicht des Strahlenschutzes nicht mehr sicherheitstechnisch relevant ist. Das heißt, dass solch ein Lager für hochradioaktiven Atommüll bei geeignetem Vorgehen im Laufe der Jahre zu eine gewöhnliche Mülldeponie übergeht. Wobei aber meistens sowieso nicht geklärt ist, was man unter den in der Öffentlichkeit meist (ungewollt, oft aber auch bewusst) genannten ’hochradioaktiven’ Substanzen, die langfristig entsorgt werden müssen, eigentlich zu verstehen hat.

All diese z. T. noch ungelösten Fragen tragen dazu bei, dass auch weltweit bis jetzt noch kein einziges Endlager errichtet wurde. Auch wenn dazu mittlerweile schon manche konkrete Pläne vorliegen. Wie z. B. in Frankreich, wo Senat und Parlament vor kurzem ihre Absicht bekundet haben, ihre Endlager in Lothringen zu errichten. Grünes Licht soll dazu allerdings erst 2025 gegeben und Abfälle dort nicht vor 2030 gelagert werden. Wobei grüne Abgeordnete, die ja Horrorzahlen lieben, von angeblich rd. 80.000 qm hochradioaktiven (!!) Müll sprechen. Befürworter, wie z. B. AREVA, bezeichnen diese Zahlen als vollkommen unrealistisch. Es kommt dafür nur noch strahlender Restmüll in Frage, der in Frankreich seit dem Zweiten Weltkrieg produziert wurde bzw. in den nächsten 50 Jahren zu erwarten ist. Deren Menge passe bequem in ein olympisches Schwimmbecken.

Trotz all dieser Bedenken wurde im März 2017 vom deutschen Bundestag ein Gesetz zur Suche von geeigneten Atommüllendlagerstätten (mit Einschlusszeiten von bis zu 1 Million von Jahren) beschlossenen (S. z. B. SZ vom 24. 03. 2017). Demnach ist geplant, zunächst einen Standort für die sichere Einlagerung von Atommüll, in der Größenordnung von zig Tausend Tonnen, zu finden. Erst nach einem positiven Ergebnis der Suche sollte dann mit der Realisierung solch eines Baus begonnen werden. Wobei man sich bei der Behauptung, dass auch das letzte und das vorletzte Glied einer radioaktiven Zerfallskette nach einer Kernspaltung für den menschlichen Organismus noch immer gefährlich werden könnten, vor allem auf eine von Hermann Müller schon in den 40-er Jahren des vorigen Jahrhunderts erstellten LNT (’linear-no-threshold’) – Hypothese stützte. Die auf Versuche mit Fruchtfliegen basierte, die einer relativ hohen Bestrahlung von 2,750 mSv und mehr ausgesetzt worden waren. Wofür er im Jahre 1946 dann auch mit einem Nobelpreis geehrt wurde. Die Aussagen für den unteren Strahlungsbereich (nämlich bis auf 100 mSv) extrapolierte er, unzulässigerweise, allerdings erst später. Wie aus obigen rein logischen Überlegungen hergeleitet wurde, folgt aber nun aus der Existenz des Regenerationsprinzips zwingend, dass der Begriff ’no threshold’ in der LNT-Theorie somit prinzipiell (!!) nicht mehr stimmen kann. Und damit für den niederen Strahlenbereich nicht mehr relevant sein kann. Treffender wäre es, sie auf LWT (’linear with threshold’) umzubenennen. Was aber auch bedeutet, dass damit jede theoretische Grundlage für Planungen von Endlagern mit sicheren Einschlusszeiten von über Millionen von Jahren zweifelhaft macht.

Obwohl diese Aussage für niedere Dosisraten mittlerweile auch anderweitig zigfach widerlegt wurde, bleiben die Befürworter dieser These noch immer bei der Forderung nach Endlagern für Millionen von Jahren (Und das nur, falls diese letzten Spaltprodukte überhaupt noch an die Oberfläche gelangen sollten). Und dies auch auf die Gefahr hin, Riesenkosten dafür aufwenden zu müssen. Kosten, die für eine Volkswirtschaft fast nicht tragbar, ja praktisch sogar unbezahlbar wären. Wohlweislich wird aber in dem jetzt beschlossenen Gesetz zur Endlagersuche die Entscheidung für solch einen Ort erst auf das Jahr 2031 gelegt. Also auf den Sankt Nimmerleinstag.

In einem ähnlich gelagerten Fall wurde mittlerweile, um jeden Austritt radioaktiver Teilchen aus dem mittlerweile maroden Sarkophag von Block 4 von Tschernobyl zu verhindern, im Rahmen international Bestrebungen entschieden und auch bereits begonnen, ein neues bewegliches Dach über diesen Sarkophag zu errichten. Genannt ’New Safe Containment (NSC)’. Damit in den nächsten hundert Jahren, wie zitiert, ’kein einziges Partikel’ aus der schmelzenden Kernmasse entweichen kann. Vorläufige geschätzte und sicherlich nicht endgültige Kosten: EUR 2,15 Mrd. (Dreimal mehr als ursprünglich geplant). An denen sich angeblich 40 Nationen beteiligen wollen. Nach 2017 soll die doppelwandige Hightech-Hülle NSC dann für 98 Jahre der (sowieso immer klammen und von Krieg und Wirtschaftskrise geplagten) Ukraine übergeben werden. Auch hier die Frage. Wozu eigentlich? Der verbliebene Rest an Atommüll besteht dann doch nur noch aus schwachradioaktiven und daher strahlungsarmen Nukliden. Besser gesagt aus ’stinknormalem Bauschutt’.

Dabei sollte es doch allen Beteiligten, der Ministerin und den Parlamentariern, klar sein, dass Planungen über technische Vorhaben, die noch nach 100 Jahren funktionieren sollen, einfach lächerlich sind. Was ist aus den Langzeitplänen unsere Vorfahren von vor 100 Jahren geblieben? Noch blamabler wird es dann, wenn man sich fragt, was die künftige Generationen in 1000 Jahren von unserer Fürsorge halten sollen? Und besonders 999 mal später dann von der Tatsache, dass sie selbst von uns vor dem letzten radioaktiven Teilchen, sofern es überhaupt freikommt, beschützt wurden. Und dafür sogar, selbstlos, den Ruin unserer Wirtschaft in Kauf genommen haben.

Man kann somit bei Beachtung von all diesen strahlenphysikalischen und –biologischen Erkenntnissen folgende Schlussfolgerung ziehen:

  • Endlagerung von radioaktivem Atommüll über zig Jahre und mehr war bisher nicht nötig und wird es auch weiterhin nicht sein. Das ergibt sich beispielsweise auch aus der Tatsache, dass es bisher in keinem Land zum Bau eines Endlagers kam. Aber auch aus der Auswertung der Erfahrungen mit den drei bisher einzigen Kernschmelzunfällen in der 60-jährigen Geschichte der friedlichen Nutzung der Atomenergie.
  • Es reicht, wenn der angefallene Atommüll zunächst über mehrere Jahre in Lagerbecken einer Reaktoranlage zur Abkühlung gebracht und danach für weitere Jahre in Zwischenlagern entsorgt wird. Bis dahin hat sich dann die Atommüllhalde in eine gewöhnliche und für die Bevölkerung ungefährliche Deponie verwandelt.
  • Dabei wäre zu empfehlen, die verbleibenden schwach radioaktiven Uran- und Plutoniumanteile bei dieser Philosophie vorher in Wiederaufbereitungsanlagen von dem übrigen Atommüllrest zu trennen. Und diese dann entweder durch Verarbeitung als Mischoxid – Brennelemente oder durch Einglasung von der Bevölkerung fernzuhalten. Ein Prozess, der im Vergleich zur bisherigen Endlagerphilosophie kaum viel Lagervolumen erfordert.
  • Der strahlende Anteil von sich bereits im Abklingbecken befindlichen abgebrannten Brennelementen oder einer Kernschmelze kann sich, je nach Masse, bereits unterhalb des natürlichen Schwellenwertes befinden. Als Motto müsste bei der Entsorgung (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre.
  • Die Kostenvorteile bei dieser Vorgehensweise liegen klar auf der Hand. Sie werden im Bereich von einigen Billionen EUR liegen. Wobei (wegen der vorherrschenden politischen Schwierigkeiten) eine Wiederaufbereitung nicht einmal im eigenen Lande stattfinden müsste.
  • Das gegenwärtige Vorgehen der Regierung in Sachen Kernenergie hat mit einer seriösen Energiewirtschaft nichts zu tun. Schon bei der Bedeutung dieser Fragen müsste es sich für Regierungen doch lohnen, in der breiten Öffentlichkeit die verschiedenen Standpunkte auf das Genaueste zu diskutieren. Es sollte dabei Hauptaufgabe einer dem Volkswohl verpflichteten Regierung sein, sicherzustellen, dass Entscheidungen über so wichtige und vor allem kostenträchtige Projekte von echten (und nicht eingebildeten, da selbsternannten) Spezialisten mit fundierten wissenschaftlichen Analysen getroffen werden. Kernenergie darf nicht Spielwiese von nur ideologisch gesteuerten Gartenbauingenieuren, Kunst- und Soziologiestudenten und ähnlichen Ideologen sein. Die jetzige Situation kommt den Staat und vor allem auch der Demokratie viel zu teuer zu stehen.

Schon diese relativ einfach zu verstehenden logischen Schlussfolgerungen sollten aufzeigen, dass es sehr wichtig sein kann, sich genau zu überlegen, nach welchen Kriterien bei der Frage der Endlagerung von Atommüll vorgegangen werden sollte. Dazu braucht es keine 10- bis 15-jährige Moratorien. Sondern die Beantwortung der Frage, welche radioaktiven Teilchen daher nach all diesen hier vorgestellten Erwägungen im Endlagerkonzept überhaupt noch berücksichtig werden sollten? Um so herauszufinden, welche dieser Zerfallsprodukte auf Jahre oder auch Jahrmillionen von der Menschheit abzuschirmen wären? Und auch zu begründen, woher die oft genannten Horrorzahlen von zig Tausend Tonnen von Atommüll kommen sollen, die dabei angeblich verarbeitet werden müssen?

Eine nachfolgende seriöse Berichterstattung in der Presse ist zur umfassenden Aufklärung der Bevölkerung über diese Problematik unabdinbar. Man sollte meinen, dass an solch leicht verständlichen Überlegungen alle Parteien Interesse haben sollten, um so nicht zum Spielball emotionaler und daher nicht mehr kontrollierbarer Strömungen zu werden. Ist aber nicht der Fall. Hier spielen Parteiinteressen (wie z. B. Ideologie, Wahlchancen, finanzielle Vorteile) oft eine viel wichtigere Rolle. Zum Schaden des Staates.

Abschließend kann festgestellt werden, dass es keinen Grund gibt, den anfallenden Atommüll über zig Jahre aufwendig zu entsorgen. Die Verwendung von Abklingbecken und Zwischenlagern genügt für die ersten Jahre, um die Bevölkerung ausreichend zu schützen.

 

 




Windkraft-Störfälle sind nicht beherrschbar

An der Bundesautobahn BAB A 9 bei Laubersreuth kann man gerade eine ruinierte Windkraftanlage besichtigen. Zwei Rotorblätter mit einem Gewicht von je 10 Tonnen sind zur Erde gestürzt bzw. haben sich um den Rotor gewickelt. Während eines nur mittleren Sturms mit einer Windspitze von 83 km/h wurde die vier Jahre alte Anlage von einer banalen Windböe im Februar geschrottet. Offensichtlich müssen die Lastannahmen für die Berechnung noch einmal erhöht werden und die Bestandsanlagen umgerüstet.

Obwohl Anlagen mit Blitzschutz errichtet werden, kommt es auch durch Blitzschlag deutschlandweit immer wieder zu Störfällen an Windkraftanlagen mit Gefährdung von Personen und Sachen.

2004 hatte die Abgeordnete Sylvia Eisenberg aus Schleswig Holstein nach einem Anlagenbrand eine kleine Anfrage  an die Landesregierung – Minister für Wirtschaft, Arbeit und Verkehr – gestellt. In der Antwort (Drucksache 15/3548) hieß es:

Nach § 19 Abs. 5 Landesbauordnung müssen bauliche Anlagen, bei denen nach Lage, Bauart oder Nutzung Blitzschlag leicht eintreten oder zu schweren Folgen führen kann, mit dauernd wirksamen Blitzschutzanlagen versehen sein. Die abgebrannte Windkraftanlage hatte ein aktives Blitzschutzsystem, das sicherstellt, dass Ströme aus Blitzen über ein Erdungssystem sicher abgeleitet werden können.  Mit derartigen Sicherungssystemen ist aber nicht völlig ausgeschlossen und kann nicht ausgeschlossen werden, dass dennoch ein Blitz einschlagen kann und ein Schadensereignis erzeugt.
(…) Eine gesetzlich vorgeschriebene Versicherungspflicht für Schäden, die Dritte durch den Betrieb einer Windkraftanlage erfahren können, gibt es nicht.
Tatsächlich dürfte aber für fast alle Windkraftanlagen eine Betriebshaftpflichtversicherung abgeschlossen worden sein. Die Träger dieser Versicherung sind die Versicherungsgesellschaften.

Wenn diese Betriebshaftpflicht nicht besteht, ist der Dritte natürlich der Dumme, wenn der Betreiber der WKA gerade Pleite ist. Auch in der Antwort auf eine kleine Anfrage des Abgeordneten Helmut Rüeck an das Ministerium für Ernährung und Ländlichen Raum in Baden-Württemberg im Jahr 2008 wurde auf das Risiko eingegangen:

Prinzipiell wächst die Blitzschlagsgefährdung von Bauwerken etwa quadratisch mit der Bauwerkshöhe. Bei Windkraftanlagen im MW-Bereich mit Turmhöhen von 100 m und Rotordurchmessern um 80 m muss statistisch mit Blitzeinschlägen im zweistelligen Bereich pro Jahr gerechnet werden – wobei die Wahrscheinlichkeit für einen Blitzeinschlag in Mittelgebirgsregionen etwa doppelt so hoch ist wie an der Küste oder im Norddeutschen Tiefland.

Nicht nur der Blitz ist eine Gefahr, sondern auch das Anlagenalter. Windkraftanlagen haben nach den AfA-Tabellen des Bundesministeriums der Finanzen eine betriebsgewöhnliche Nutzungsdauer von 16 Jahren, werden jedoch oft länger genutzt. Stahl ist wesentlich widerstandsfähiger, als die Löffel von Uri Geller, die sich schon beim Angucken verbogen. Problem ist jedoch im Langzeitbetrieb die Materialermüdung, die bei einer statisch unkritischen Belastung unterhalb der Streckgrenze des Stahls zu einer Funktionsuntüchtigkeit durch Ermüdungsrissbildung und zum Ermüdungsbruch führen kann. Zyklisch durch Wind belastete Teile haben prinzipiell eine begrenzte Lebensdauer.

Auch Spannbetonteile ändern daran nichts, denn die darin befindlichen Spannstähle und die schlaffe Bewehrung unterliegen auch den Naturgesetzen. Beton wird nie durch Druck zerstört, sondern durch Querzug. Wenn der Beton in Druckrichtung um einen Millimeter gestaucht wird, so verlängert er sich in Querrichtung um 0,16 mm. Die Rißbildung in Richtung der Druckkraft wird durch Querbewehrung verhindert, bis diese Bewehrung durch Ermüdung bei Wechsellasten versagt. Ein gutes Beispiel war die 1936 bis 1938 gebaute Teufelstalbrücke im Zuge der Bundesautobahn BAB A 4 bei Schleifreisen. Die statische Beratung erfolgte durch den Guru des deutschen Stahlbetonbaus Emil Mörsch, die Nachweise zur Stabilität der Stahlbetonbögen führte Franz Dischinger und Untersuchungen zum Langzeitverhalten des Bauwerks wurden auch geführt. Obwohl alle Kapazitäten der damaligen Fachwelt versammelt waren, war die Querbewehrung der Schwachpunkt und die Brücke mußte trotz Denkmalschutz wegen gewaltigen Rissen 1999 abgetragen werden. Ein Ermüdungsproblem.

Einige Windkraftanlagen sind aus Altersschwäche schon umgefallen. Die Zahl der Zusammenbrüche wird sich erhöhen, wenn die geburtenstarken Jahrgänge der Windmühlen ins Rentenalter kommen.

Kürzlich war wieder eine ältere Anlage vom Wind geköpft worden. Als Ursache wurde angegeben, daß sich der Rotor nicht aus dem Sturm gedreht hätte. Eigentlich hätte dadurch entsprechend den Lastannahmen noch nichts passieren dürfen. Aber wenn eine 20 Jahre alte Anlage morgens aufwacht, und es tut nichts weh, dann ist sie schon umgefallen.

Eine für uns Erdlinge sichere Technik der Energiegewinnung sieht anders aus.

Der Beitrag erschien zuerst auf Prabels Blog




Lassen Sie uns $ 40 Billionen in Erneuerbare investieren – Präsident der Weltbank

„Der Klimawandel bietet große Investitionsmöglichkeiten“, rät Al Gore der Weltbank

Von Sophie Hares

Der Klimawandel sollte als Chance wahrgenommen werden, um riesige Kapitalströme in kohlenstoffarme Investitionen zu investieren, Arbeitsplätze zu schaffen und das Wirtschaftswachstum zu fördern, anstatt [den Klimawandel] als Geld absorbierende Belastung zu betrachten, sagen Funktionäre und Experten.

Billionen von Dollars sind potentiell für Klimainvestitionen verfügbar und Länder wie Indien bereiten den Weg, wenn es darum geht, billige Sonnenenergie für Millionen [Menschen] zu produzieren. Die Ärmsten der Welt werden belegen, dass dieses eine große Herausforderung darstellen wird, so hörte man es letzte Woche auf einer Sitzung der Weltbank.

„Es ist die größte Gelegenheit in der Geschichte der Welt – es ist die größte Investitionsmöglichkeit, aber wir müssen eine klare Vision haben, wir müssen eine politische Führung haben … um die Weltgemeinschaft zusammenzubringen, um die Finanzierung zu bekommen, die benötigt wird, um die Eigendynamik schneller in Schwung zu bekommen“, sagte der ehemalige US-Vizepräsident Al Gore der Diskussion.

Weltbank-Präsident Jim Yong Kim ist überzeugt, dass die  Finanzierung von Klima-Aktionen eine lukrativere Anlage bieten kann, anstatt der $ US 8.5 Billionen ($ 11.2 Billionen) in negativen Zinsanleihen, $ US 24.5 Billionen in sehr Rendite niedrigen Staatsanleihen und weitere $ US Billion in Bargeld, obwohl eine klare Strategie noch durchgeboxt werden muss.

„Ganz abgesehen von dem, was Sie über den Klimawandel denken, es gibt Möglichkeiten für Investitionen, die Ihnen höhere Erträge bringen, als irgendwelche dieser Investitionen, in denen jetzt über US $ 40 Billionen angelegt sind„, beschwor Kim seine Zuhörer.

Der Schlüssel ist, die Finanzierung für das Wirtschaftswachstum freizusetzen, das auch Klimaschutz bringt, so die ehemalige Leiterin des UN-Klimaschutzes Christiana Figueres.

Die Markteinführung eines $ US 2 Milliarden-Green-Bonds-Fonds, der von der International Finance Corporation und der Vermögensverwaltungsgesellschaft Amundi unterstützt wurde, könnte dazu beitragen, die Klimainvestitionen in den Entwicklungsländern voranzutreiben.

„Zu denken, dass Klimaaktionen teuer und eine Belastung sind, und eine Verantwortung, dann war das vor fünf Minuten“, sagte sie. „Das exponentielle Wachstum der Technologien und der Preisverfall haben das zur besten Gelegenheit gemacht – und das ist die Geschichte des Wachstums für dieses Jahrhundert.“

Lesen Sie mehr auf: http://www.afr.com/business/energy/solar-energy/climate-change-offers-huge-investment-opportunity-al-gore-tells-world-bank-20170424-gvrni2

Es ist eine Sache, wenn die harten, alten Grünen wie Al Gore oder ehemalige UNO Apparatschiks wie Figueres dumme Behauptungen über erneuerbare Chancen machen.

Aber es ist eine ganz andere Sache, wenn jemand, dessen Aufgabe es ist, die Investitionen von Milliarden Dollar an öffentlichem Geld zu überwachen, seine Begeisterung für die Verschwendung dieses Geldes für riskante Investitionen ausdrückt, deren Rentabilität völlig von der unbeständigen, finanziellen Unterstützung von Politikern abhängig ist.
[Anmerkung: Politiker finanzieren nichts, nur der Steuerzahler und der meist nur zwangsweise; der Übersetzer]

Echte Investitionsmöglichkeiten brauchen keine besonderen Maßnahmen, um die Finanzierung „freizusetzen“ – sobald die Nachrichten bekannt werden, eilen die Leute, um nach eigenen freien Willen zu investieren.

Erschienen auf WUWT am 24.04.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/04/24/world-bank-president-lets-invest-us-40-trillion-in-renewables/

 

Nachtrag des Übersetzers

Zur Thematik des großen Geldes und der (Welt-) Banken, stieß ich hier auf Gedanken, die ich noch nicht kannte

http://www.ef-magazin.de/2017/04/24/10894-geldsystem-die-mutter-aller-probleme




Schnee statt Frühlings­wärme- geht der Klima­erwärmung nun auch im April die Puste aus? Teil 1

Eine Grafik des Schnittes der ersten vier Monate über die letzten 30 Jahre ergibt folgendes Bild. Die Daten sind die Originaldaten des Deutschen Wetterdienstes, also gespickt mit Messstationen wie Frankfurt, die ausgesprochenen von Menschenhand geschaffenen Wärmeinseln stehen und keinesfalls die Temperaturen der freien Fläche, das sind immerhin über 85% der Gesamtfläche Deutschlands, messen.

Grafik 1: Temperaturentwicklung der ersten vier Monate über die letzten 30 Jahre

Dieser April erweckte heuer mit sommerlichem Auftakt die Aprilblüher der Reihe nach vorzeitig zum Blühen. Doch der eiskalte Absturz folgte prompt. Folgendes Gedicht beschreibt in Anlehnung an Goethes Osterspaziergang den „Aprilwinter“ 2017:

„Mit Schnee wieder bedeckt sind Bäume und Sträucher durch des Winters herben, eisigen Hauch,

der junge Frühling in seiner Schwäche, verging in Schall und Rauch.

Es faseln die Grün- Aktivisten

vom Klimawandel und so,

doch schau‘ ich aus meinem Fenster,

dann frag‘ ich, wo bleibt er bloß, wo?“

Aber wo ordnet sich der April 2017 langfristig ein, ist er tatsächlich „zu warm“ gewesen, wie der Deutsche Wetterdienst (DWD) regelmäßig behauptet? Steht ein erneuter Hitzerekord bevor? Die nächste Grafik anhand einer Langzeitreihe des Hohenpeißenberges soll uns dies beantworten: Der HPB im Voralpenland, gute 40 km nördlich der Zugspitze gelegen, ist ein Vorzeigeberg des DWD und die Wetterstation, anfangs bei einem Kloster an höchster Stelle kann auf über 200 jährige Aufzeichnungen zurückblicken. Ab 1934 wurde der Standort der Wetterstation allerdings durch bauliche Maßnahmen verlegt und wärmend verändert, so dass die Werte der letzten Jahrzehnte geringfügig zu hoch sind im Vergleich mit dem früheren kälteren Standort. Trotzdem ist die Antwort eindeutig.

Grafik 2: Wo ist die stets behauptete Klimaerwärmung, vor der wir uns in Acht nehmen müssten? Der wärmste Aprilmonat auf dem HPB war zu Goethes Zeiten. Die letzten 30 Jahre lagen lediglich etwas über dem 200-Jahresschnitt.

Wie es weitergeht mit den Apriltemperaturen, weiß niemand, da das CO2 in den letzten 200 Jahren keinerlei wärmende Wirkung zeigte. Der Name Treibhausgas ist eine Worterfindung. Noch in keinem einzigen Versuch konnte diese angebliche CO2-Erwärmungswirkung gezeigt werden. Die einzige menschliche Einwirkung entsteht aus der Schaffung (Naturzerstörung) neuer, großflächiger Wärmeinseln auf der Erde. Die ständige Urbanisierung in die einst freien Naturflächen hinein erzeugt die Erwärmung bei den Messstationen. Schon der Begründer des CO2-Erwärmungsglaubens, Svante Arrhenius hatte deshalb entnervt seine Hypothesen aufgegeben. Doch falsche Glaubenseinstellungen halten sich auch in der Wissenschaft hartnäckig, vor allem, wenn sie zu einem Geschäftsmodell und damit Selbstbedienungsladen geworden sind.

Aprilbetrachtung kürzerer Zeiträume:

In den letzten Jahren hatten wir den April noch als eine Ausnahme beschrieben, endlich ein Monat, der die versprochene Klimaerwärmung in der Trendlinie zeigte, siehe: https://www.eike-klima-energie.eu/2016/04/15/waermerer-april-grund-zur-freude-oder-ein-vorzeichen-der-klimakatastrophe/. Das schien sich heuer auch in den ersten 14 Tagen zu bestätigen. Doch nach der Kältephase in der 2.ten Hälfte wurde es ein normaler April wie auch schon letztes Jahr. Es bleibt jedoch ein wesentlicher Unterschied zur Temperaturentwicklung der ersten drei Anfangsmonate. Diesen wollen wir mit dieser Zeitgrafik nach den Daten des Deutschen Wetterdienstes für den Deutschlandschnitt zeigen:

Grafik 3: Auch die Temperaturkurve des Monates April verläuft nicht gleichmäßig, sondern in Form einer Wellenlinie. Während des Krieges hatte der April einen Temperaturwellenberg, der dann in eine allmähliche Abkühlung überging. Nach einer erneuten Erwärmung erreichte der Monat dann 2009 mit 11,8 C einen Temperaturhöhepunkt. Seitdem wird der Monat wieder kälter.

Der wichtigste Unterschied zu den anderen drei Anfangsmonaten ist: Der Monat April hatte seine Temperaturdepression 10 bis 20 Jahre später als die drei Anfangsmonate, also erst um 1975. Die Temperatur-Welle verläuft entsprechend versetzt auch gegenüber den meisten anderen Monaten. Doch inzwischen geht auch der April-Temperaturverlauf in eine Abkühlungsbewegung über.

Nach 10 Jahren Abkühlung haben wir uns nun dieses Jahr erstmals entschieden, auch diesen Monat als eine Bestätigung der beginnenden Abkühlungsphase und nicht länger als Ausnahme für eine weitere Erwärmung zu sehen. Die Apriltemperaturen werden sich eher nicht mehr weiter denen des Mai annähern.

Der April macht also keinesfalls was er will, sondern er folgt genauso wie die anderen Monate einem vorgegebenen Schwingungsverlauf. Wie aus dem polynomen Trend-Linienverlauf der Deutschlandgrafik 3 leicht ersichtlich ist, zeigt der Frühlingsmonat deshalb über 30 Jahre immer noch eine deutlich steigende Trendlinie, da die gegenwärtigen Apriltemperaturen noch deutlich über dem Minimum um 1975 liegen. Ein Hinweis sei uns gestattet: Der DWD-Vergleichszeitraum von 1961 bis 1990 füllt fast genau die Zeit einer Abkühlungsphase aus. Ironischerweise wird dieses Kälteloch dann als „Normaltemperatur“ in den DWD-Veröffentlichungen bezeichnet. Fast jeder April kann uns somit amtlicherseits als „zu warm“ und als Fortsetzung der Klimaerwärmung verkündet werden. Ein Kälteloch als Normalzustand! Welcher Irrsinn.

Weil der DWD-Temperaturhöhepunkt im Jahre 2009 war, zeigt der Temperaturverlauf erst seit 20 Jahren einen gleichmäßigen Verlauf im DWD-Deutschland mit ebener Trendlinie.

Grafik 4: 10 Jahre rauf, 10 Jahre runter, macht über 20 Jahre betrachtet einen ausgeglichenen Temperaturverlauf des Monats April in Deutschland. Anzumerken ist, dass der 20 Jahresschnitt mit 9°C über dem DWD-Vergleichsschnitt von 1961 bis 1990 liegt. Wir befinden uns immer noch auf einem relativ warmen April-Temperaturplateau.

Die Temperaturaufzeichnungen des Deutschen Wetterdienstes sind jedoch nicht wärmeinselbereinigt. Aufgrund der ständigen Bebauung und der sich fortsetzenden weiteren Urbanisierung in die Natur hinein steigt der Temperaturunterschied zwischen kaum vom Menschen beeinflussten Flächen und den verstädterten Gebieten (weniger die Zentren der alten Städte, aber durch neue Siedlungen, Verkehrsanlagen, Entwässerungsmaßnahmen, Wind- und Solarparks) weiter an, was jedermann leicht mit dem Autothermometer überprüfen kann. In früheren Artikeln haben wir gezeigt, dass diese Stadt-Land Temperaturunterschiede in den Monaten April bis Juni besonders hoch sind

Grafik 5: Von 1981 bis 2010 gefundene UHI- Differenzen in Kelvin, gebildet aus den Mitteln dreier urbaner Stationen in Berlin und dreier ländlicher Stationen in Brandenburg. Hohen, verstädterungsbedingten Differenzen von über 0,8 K im April stehen geringere im Spätsommer/Frühherbst gegenüber. Die jahreszeitlich bedingten UHI- Effekte sind in Berlin eng mit geänderten Sonnenscheinverhältnissen- und Großwetterlagenhäufigkeiten verknüpft.

Um deshalb einen wirklichkeitsnäheren Klimaverlauf besprechen zu können, müssen wir die DWD-Temperaturreihen entweder um einen Wärmeinselfaktor korrigieren oder auf ländliche Stationen zurückgreifen, deren weite Umgebung sich weniger verändert hat als der Gesamtschnitt Deutschlands. Eine solche Station wäre Goldbach bei Bischofswerda im Osten Sachsens auf 320 m Höhe. Der Stationsleiter, Herr Pscheidt hat uns gegenüber betont, dass außer dem Straßenneubau in dem kleinen Teilort, wenig an erwärmenden baulichen Veränderungen dazugekommen wäre.

Grafik 6: Wärmeinselarme Stationen wie Goldbach, ein kleiner Vorort von Bischofswerda im Osten Sachsens, dessen Umgebung sich in dem Betrachtungszeitraum kaum verändert hat, zeigen bereits seit 20 Jahren wieder eine April-Abkühlung. Auch in diesem kleinen Ort war wie im Deutschlandschnitt 2009 der wärmste April. Andere ländliche Stationen bestätigen diesen leichten Abkühlungstrend.

Bei anderen wärmeinselarmen ländlichen Stationen Deutschlands und erst recht in der freien Natur fallen die warmen Aprilmonate weniger warm aus und die kalten sind kälter, weil die Kälte weder von der Sonne noch von den Heizungen der Gebäude und von breiten Umgehungsstraßen weggeheizt werden können. Deshalb setzt die fallende Trendlinie auch einige Jahre früher als beim DWD-Deutschlandschnitt ein. Das zeigen wir anhand der Wetterstation Amtsberg, im kleinen Teilort Dittersdorf im Westen des Freistaates Sachsen im Vergleich zum wärmeinselbehaftetem DWD-Deutschlandverlauf:

Grafik 7: Die Wetterstation Amtsberg/Dittersdorf (blau) zeigt bereits seit 1992 eine noch nicht signifikante Abkühlungstendenz, während die DWD-Trendlinie aufgrund der vielen Messstationen in Wärmeinseln noch steigend ist.

Ein Blick in die USA: Deutschland ist nicht die Welt. Der Aprilverlauf in der ältesten Wetterstation in Virginia/USA bei einer Farm auf dem Lande zeigt diesen Verlauf.

Grafik 8: An der Ostküste der USA in Virginia mitten auf dem Lande verläuft der Monat April in geordneten Bahnen, außer den 2 Ausreißern vor über 100 Jahren haben sich die Temperaturen stabilisiert. Wo ist die Klimaerwärmung des Monates April auf dem Lande in Amerika? Der Verlauf von Washington- City würde freilich anders aussehen. Temperaturangaben hier in Fahrenheit. 50 Grad Fahrenheit entsprechen 10 Grad Celsius.

Kampf der Klimaerwärmung: Doch von welcher Erwärmung reden die Erwärmungserzähler überhaupt? Welche Erwärmungskatastrophe wollen diese Fantasieerzähler der Medien überhaupt bekämpfen? In der freien Fläche außerhalb der wärmenden Ansiedlungen bzw. in kleinen Ortschaften hat nun sogar der April in Mitteleuropa seine Erwärmungsphase seit gut 25 Jahren gestoppt. Ausgerechnet in einem Zeitraum, in welchem das Kohlendioxid stark zugenommen hat. Schon daraus wird ersichtlich, dass andere und zwar viele Gründe das Klima in Deutschland bestimmen und die Grafik 8 zeigt, dass in den USA wiederum andere Gründe vorherrschend sind. Die Jahre sind verschieden, der Trendverlauf bleibt ähnlich: Nichts, wovor wir uns fürchten müssten.

Doch wie verhält sich die Vegetation Anfang Mai in der freien Fläche Deutschlands außerhalb der Wärmezonen von Städten und Siedlungen? Diese Frage soll nun am Schluss beantwortet werden.

Vegetation: Die Aprilblüher wie Kirsche, Schlehen, Birnen waren diesmal verfrüht wegen der äußerst warmen beinahe schon sommerlichen letzten Märzwoche und der darauf folgenden ebenso warmen ersten zehn Apriltagen. Uns so kam es, dass Märzenveilchen, Anemonen, Scharbockskraut, Forsythie, Schlehen und Birnen gleichzeitig blühten. Komischerweise ließ sich die Traubenkirsche nicht von den Temperaturen leiten, die blühte Mitte April wie fast wie immer.
Jedenfalls haben wir im Ostalbkreis in den letzten 50 Jahren nicht erlebt, dass die Süßkirschen bereits am 10. April in voller Blüte standen. Siehe Foto:

Foto: Kowatsch

Doch aufgrund der stetigen Abkühlung ab dem 13. April verzögerte sich der bevorstehende Blütenbeginn von Kastanien und Apfelbäumen, so dass die April/Maiblüher fast im normalen Rhythmus erschienen sind. Immerhin blieb der Laubaustrieb der Bäume wegen des warmen Intermezzos zu Monatsbeginn um eine Woche verfrüht.

In Weimar (Thüringer Becken) begann der Vollfrühling 2017, markiert durch die ersten Blüten des Kornapfels, am 10. April und damit fast 10 Tage verfrüht. Insgesamt ist der geringe, seit 1990 zu beobachtende Verfrühungstrend der Apfelblüte nicht signifikant; der ihr vorausgehende Erstfrühling (Laubaustrieb der Wildstachelbeere) hat sich hingegen etwas verzögert:

Grafik 9: Trotz der relativ zeitigen Apfelblüte 2017 ist deren Verfrühungstrend- ebenso wie der der Haselblüte, welche diesmal eher spät einsetzte- nicht signifikant. Wechselhafte Witterung und das Pflanzenverhalten gleichen vieles aus.

Aber seit dem Kälteeinbruch herrscht fast Vegetationsstillstand, der bewirken dürfte, dass der Frühsommer (Blühbeginn des Schwarzen Holunders) wohl eher wieder um den normalen Termin herum (5. bis 15.Mai) eintreten dürfte- je nachdem, wie sich die Temperaturen verhalten werden. Auch in anderen Teilen Europas verlief der April ähnlich, nur mit krasseren Gegensätzen, in der Hautstadt Moldawiens blühten bereits die Kastanien, als der Winter nochmals Einzug hielt.

„Geparkte Fahrzeuge versinken in den Schneemassen. In den kommenden Tagen wird es in der Region wieder deutlich wärmer, dann drohen Überschwemmungen durch starkes Tauwetter.“ Quelle; Fotostrecken, Freitag, 21.04.2017 Moldawien versinkt im Schnee

Die einzelnen Stationsleiter des Deutschen Wetterdienstes arbeiten zuverlässig, ihre Daten sind vertrauenswürdig, genauso wie der Vegetationsbeginn in der freien Natur, außerhalb der von Menschen geschaffenen Wärmeinseln. Und wie in den Grafiken gezeigt, hat der April seine Erwärmungstendenz nun eingestellt, was eigentlich bei jedem CO2-Treibhausgläubigen zur Revision seines Glaubens führen müsste.

Die immer noch vorhandene Erwärmung in den Städten und an den Landebahnen der Flughäfen im Bereich der 600°C heißen Abgase ist eine vom Menschen hervorgerufene Wärmeinselerwärmung bei den Thermometern der dortigen Stationen.

Somit misst der Deutsche Wetterdienst das genaue Gegenteil dessen, was den Deutschen, vor allem den Politikern über die Medien vorgeschwätzt wird. Wie das Klima in der Zukunft sein wird, das kann niemand wissen, denn unsere Grafiken zeigen erneut, dass C02 gar keinen oder fast keinen Einfluss auf die Temperaturen haben kann.

Der Leser möge sich gerne die Frage stellen, wie warm die aktuell gemessenen Temperaturen tatsächlich wären, wenn Deutschland sich seit über 120 Jahren überhaupt nicht verändert hätte, also die gleiche Bevölkerungszahl wie im Kaiserreich, eine dünn besiedelte Landschaft, die gleiche primitive Lebensweise, sowie kalte Häuser mit einer Ein-Zimmerheizung in viel kleineren Städten, und wenn die Messstationen am gleichen kalten Ort wie früher stünden: Neben fast unbeheizten Klöstern, bei den Fischteichen in den kühlenden Feuchtwiesen rund um die Städte oder bei Förstern am Waldrand. Letztere stehen heute auf Flugplätzen an den Landebahnen der heißen Abgase, bei Einkaufszentren an den warmen Parkplätzen oder in den entstandenen Siedlungen der Vorstädte und werden oft sogar noch unter demselben Namen geführt.

Fazit:

1) Die ersten drei Monate des Jahres werden seit 30 Jahren geringfügig kälter, die März-Frühblüher sind etwas verspätet.

2) Der April hat außerhalb der Wärmeinseln seit über 25 Jahren einen auf hohem Temperaturniveau stagnierenden Verlauf in Deutschland, ist aber immer noch wärmer wie vor 40 bis 50 Jahren. Deshalb starten die April- Blüher etwas früher als noch vor 40 Jahren. Der April ist momentan zum eigentlichen Blütenmonat geworden, da sich auch die Märzen- Blüher noch fast alle zeigen.

3) Seit 20 Jahren deutet sich auch beim April eine Abkühlungstendenz an.

4) Will man den menschlichen Anteil an der Klimaerwärmung stoppen, dann müsste man die weitere Urbanisierung der freien Landschaft stoppen. Gebäude und Straßen, die zunehmende Bevölkerung mit ihrem Energiehunger sind die anthropogenen Beigaben der Klimaerwärmung. Sie wirken der momentanen Abkühlungsphase entgegen.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Correctiv: Postfaktischer Faktencheck

Das vom berühmt-berüchtigten Multimilliardär George Soros zuletzt mit 100.000 Euro gesponserte Recherche-Netzwerk Correctiv.org, das auch dem deutschen Wahrheitsminister Heiko Maas zuarbeitet, hat vor kurzem einen Satz auf der Homepage der AfD einem so genannten Faktencheck unterzogen. Durchgeführt wurde die Überprüfung von Studierenden des Instituts für Journalistik der TU Dortmund unter Professor Holger Wormer. Anstoß bei den Nachwuchs-Zensoren hatte folgende Feststellung der einzigen deutschen Oppositionspartei erregt:

„Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet.“

Über den etwas missglückten Stil dieses Satzes möchte ich mich hier nicht auslassen, denn es ist ohnehin klar, was damit gemeint ist.

„Nein. Das Gegenteil ist richtig. Wissenschaftler sind sich mit überwältigender Mehrheit einig: Der Klimawandel ist menschengemacht.“

Diesen Schluss zieht die Correctiv-Autorin Anastasiya Polubotko, eine Studentin von Prof. Wormer, schon bevor sie ein einziges Argument vorgebracht hat. Als Belege für ihre Schlussfolgerung zitiert sie dann die hier schon mehrfach kritisierten einseitigen Literaturauswertungen von John Cook (Australien) und Naomi Oreskes (USA). Die zuletzt genannte Studie fußt ausschließlich auf den Überschriften und Abstracts von knapp 700 wissenschaftlichen Artikeln zur Klima-Thematik in den führenden Wissenschaftsmagazinen Science (USA) und nature (Großbritannien). Polubotko schließt daraus: „Die Studien waren sich zu 100 Prozent einig: Der Mensch ist für den Klimawandel verantwortlich.“ Es konnte aber nachgewiesen werden, dass etliche dieser Publikationen im Detail durchaus Zweifel anmelden und längst nicht zu 100 Prozent die These von der menschlichen Schuld am Klimawandel stützen. Vermutlich haben die wissenschaftlichen Autoren ihre Einschränkungen und Zweifel nicht im Titel ihrer Publikationen mitgeteilt, um überhaupt Chancen zu haben, in die weltweit führenden Wissenschaftsjournale aufgenommen zu werden. Naomi Oreskes hat mit ihrer Studie, genau besehen, nicht bewiesen, dass sich die führenden Klimaforscher zu 100 Prozent einig sind, sondern, dass es auf diesem Forschungsgebiet eine Tendenz zur politischen Gleichschaltung gibt.

Physisch fühlbar ist nur das ständig wechselnde und regional sehr unterschiedliche Wetter. Der Klimawandel ist, wie die Bezeichnung schon andeutet, keine mit den fünf Sinnen unmittelbar beobachtbare beziehungsweise mit Instrumenten messbare, sondern eine statistische Größe, die auf der Auswertung sehr vieler Temperatur- und Niederschlags-Messwerte über einen längeren Zeitraum (in der Praxis 30 Jahre) beruht beziehungsweise beruhen sollte. Da kommt es darauf an, welche statistischen Verfahren angewandt werden, um verschiedene Messwerte oder Indikatoren zu vergleichen und zu bewerten. Die Auswertung von Statistiken führt nicht geradewegs zur kausalen Erklärung von Zusammenhängen, sondern zu mehr oder weniger guten Korrelationen zwischen in Erwägung gezogenen Faktoren. Auch wenn dabei so sorgfältig wie möglich gearbeitet wird, bleibt immer ein großer Interpretationsspielraum. (Wenn die Geburtenrate mit der Zahl der Störche korreliert, heißt das noch nicht, dass die Störche die Babys bringen.) Es ist extrem unwahrscheinlich, dass die Wissenschaftler verschiedener Spezialdisziplinen dabei zur selben Schlussfolgerung gelangen. Wenn sich bei einem so komplexen Problem dennoch Tausende von Wissenschaftlern, die dem „Weltklimarat“ IPCC zuarbeiten, einig zeigen, kann das also nur ein Hinweis auf eine bereits erfolgte Gleichschaltung sein.

Was noch schwerwiegender ist: Frau Polubotko erwähnt überhaupt nicht, dass die in der öffentlich finanzierten Klimaforschung überstrapazierten Computermodelle in einem entscheidenden Punkt gar nicht auf durch Beobachtung oder Experiment gewonnenen Daten beruhen, sondern auf der dogmatischen Vorgabe, wonach die Erhöhung der Konzentration des Spurengases Kohlenstoffdioxid (CO2) in der Erdatmosphäre (von 280 auf 400 von einer Million Luftmolekülen) durch von den Menschen verursachte Verbrennungsabgase in der Hauptsache für die Erderwärmung in den vergangenen 100 Jahren verantwortlich sein soll, und zwar über den dem CO2 zugeschriebenen „Treibhauseffekt“. Danach sollen die CO2-Moleküle durch die vom Erdboden in Form von Infrarotstrahlen (Wärme) reflektierte Sonnenenergie in einen angeregten Zustand versetzt werden und die so gespeicherte Energie nach einer Weile wieder zur Erde zurückstrahlen. Die Erde würde dadurch wärmer als allein durch die Sonnenstrahlen. Dieser gegen Ende des 19. Jahrhunderts vom schwedischen Chemiker Svante Arrhenius postulierte Treibhauseffekt konnte nie experimentell nachgewiesen werden. Im Gegenteil: Schon zu Beginn des 20. Jahrhunderts konnte der amerikanische Strahlenphysiker Robert William Wood mithilfe eines einfachen Experiments nachweisen, dass es diesen Effekt nicht einmal in einem richtigen Gewächshaus gibt.

Die Klimaforscher stützen also ihre Computersimulationen auf eine rein theoretisch abgeleitete „Klimasensivität“ steigender CO2-Konzentrationen, ohne jemals experimentell geklärt zu haben, was CO2 in der Atmosphäre genau tut. So ist es nicht verwunderlich, dass schon die statistische Korrelation zwischen dem CO2-Anstieg und der Temperaturentwicklung der letzten hundert Jahre (0,44 im r2-Test) ziemlich schlecht ist. Offenbar haben sich Politik und Wirtschaft vor allem deshalb auf CO2 als Hauptursache des Klimawandels festgelegt, weil sie damit bei einfachen Menschen Angst und Zahlungsbereitschaft erzeugen können.

Anastasiya Polubotko weist in ihrem angeblichen Fakten-Check selbst darauf hin, dass viele Wirtschaftswissenschaftler wie der Niederländer Richard Tol eine skeptischere Haltung zur Klima-Thematik an den Tag legen als die Mehrheit der so genannten Klimawissenschaftler. Das zeige, dass Wirtschaftswissenschaftler wenig bis nichts vom Klima-Thema verstehen. In Wirklichkeit ist es aber wohl so, dass Ökonomen und insbesondere Ökonometriker mehr von den Tücken statistischer Hochrechnungen verstehen als Spezialisten der Computersimulation und sich deshalb vorsichtig äußern.

Kurz: Dieser am Dortmunder Institut für Journalistik erstellte „Fakten-Check“ ist in Wirklichkeit ein Instrument der Zensur, das in erster Linie dazu dient, berechtigte Zweifel an der offiziellen Erklärung des Klimawandels zu unterdrücken und damit den Fortschritt unvoreingenommener wissenschaftlicher Forschung zu hemmen.




Energiewende in England – Die Briten brauchen keine Kohle

Dazu zitiert SPON die auf ewig ahnungslose Professorin für Volkswirtschaft und „Energieexpertin“ des DIW Berlin Claudia Kemfert, sie darf bei Spiegel Online zu dieser Tartarenmeldung ihren Senf dazu geben:

„Das britische Beispiel zeigt: Die Kohle ist verzichtbar“, sagt Claudia Kemfert, Abteilungsleiterin Energie, Verkehr und Umwelt beim Deutschen Institut für Wirtschaftsforschung. „Aber die Briten erkaufen sich das mit mehr Erdgas und hohen Subventionen für Atomenergie.“ Ein Komplettumbau hin zu erneuerbaren Energien wäre auch „ökonomisch klüger“, behauptet Kemfert. Regenerative Techniken würden immer wettbewerbsfähiger – wie gerade der Fall EnBW zeige. Der Baden-Württemberger Stromriese will in der Nordsee einen Offshore-Windpark ganz ohne Subventionen bauen

Einer unser Leser hat diese Meldung zum Anlass genommen ein wenig zu rechnen. Dazu benötigt man keine großen Fähigkeiten, sondern nur einen gesunden Menschenverstand und die Kenntnis der Grundrechenarten und die Fähigkeit zu googeln. Bis auf googeln sind erstere offenbar selten geworden. Ohne diese Fähigkeiten kann man hierzulande sogar Professorin für Volkswirtschaftslehre werden, vom Beruf des Journalisten gar nicht erst zu reden.

Hier die Mail unseres Lesers an den Herausgeber eines links-politischen Blogs. Er bat uns seinen Namen nicht zu nennen:

Sehr geehrter Herr ZYX

hier mal eine schöne Meldung für Freunde der Energiewende. “Erstmals seit dem 19. Jahrhundert ist Großbritannien einen Tag lang ganz ohne Kohlestrom ausgekommen.”

Tolle Sache! Die verbrennen da weniger Kohle, dafür Gas und Holz. In den letzten Jahren haben die in ihrem modernstes Kohlekraftwerk Drax die Hälfte der Blöcke auf zerschnitzeltes und pelletiertes Holz umgestellt. Damit produziert Drax jetzt 8 % des britischen Stromes bzw. 20 % des gesamten Stromes aus erneuerbaren Energien. Ab 2017 benötigen die jährlich 7,5 Mio. t Biomasse. Das entspricht 1.200.000 ha Wald (12.000 km²). Die Briten beziehen das Holz überwiegend aus den USA, von wo es mit 50.000 t-Frachtern importiert wird. Rein rechnerisch sind das 150 Seetransporte pro Jahr. Ich nehme an, die erfolgen klimaneutral mit Windjammern.

Die Waldfläche der USA umfasst rund 300 Mio. Hektar. Das zur Hälfte mit Biomasse (Wie schön das klingt: Biomasse!) betriebene britische Kraftwerk könnte also die USA in 250 Jahren entwalden. Geht natürlich nicht, weil der Wald ja nachwachsen kann – kaum so schön, wie er jetzt ist, aber immerhin als Forst. Doch 10 solche Kraftwerke würden die Entwaldung der USA schon in 25 Jahren erledigen können. Und zwar nachhaltig! Wir sind auf einem guten Weg. Wer braucht schon Wald? In Spanien geht’s ja auch ohne und in der Sahara.

Beste Grüße

Ihr

XYZ

Mehr ist eigentlich nicht hinzuzufügen




9. Energie­politischer Dialog der CDU/CSU Bundestags­fraktion wird zum Monolog!

Insgesamt trugen 4 hochkarätige Impulsredner aus der Wirtschaft sowie die Abgeordneten Kauder, Nüßlein, Bareiß, und Bundeskanzlerin Merkel Ihre Ansichten und Ideen zum Thema  Energiewende – Die Energiewende wirtschaftlich gestalten vor.

Update: Frau Merkels Credo, das sie bei Ihrer Rede äußerte:

„Nicht jeder Generation ist es gegeben, solche technischen Umbrüche zu erleben und dabei zu sein, ist schön!“

Abgesehen von dieser, von der Wirklichkeit entrückten, fast schon komischen Einlage der Kanzlerin, waren die Fachvorträge durchweg diskussionswürdig, doch eine Diskussion, ein Dialog mit dem Publikum fand nicht statt. Daraufhin sandte ich dem Veranstalter diese Mail:

Sehr geehrter Herr Bareiß,

der gestrige 9. Energiepolitischer Dialog der CDU/CSU Bundestagsfraktion endete mit einer Enttäuschung. Es war schade um die Zeit.

Vermutlich dank der Terminenge der Bundeskanzlerin kam ein Dialog – wie zuvor sowohl im Titel als auch durch die Moderatorin Frau Plättner versprochen- nicht zustande. Nur zwei kurze Wortmeldungen auf die durchweg interessanten Vorträge der Impulsredner wurden von ihr zugelassen. So wurde es nur ein Monolog- und davon sehr geehrter Herr Bareiß – haben wir nun wirklich genügend.

Fasst man die Inhalte der Impulsreden zusammen, so drehten sich diese ausnahmslos (und wie auf fast allen früheren Energiepolitischer Dialogen auch) über Probleme (neudeutsch: Herausforderungen), die sie ohne die Energiewende nicht hätten. Trotzdem lobten sie diese einhellig und bekannten sich überdies zur Mutter aller Energiewenden (im Klimaschutzplan 2050 „Transformation“ genannt) zur Idee des Klimaschutzes.

Warum das so ist kann ich nur vermuten, denn die Fakten geben das nicht her. Weder, dass das Klima geschützt werden kann, und schon erst recht nicht von Deutschland (Herr Dr. Nüßlein wies zu Recht darauf hin) noch kann die Energieversorgung eines Industrielandes wie Deutschland durch volatile, naturgesetzlich zwangsläufig teure Energieträger sicher gestellt werden. Das wäre nur mit Speichern prinzipiell möglich – wenn auch wg. Überteuerung schon an dieser Stelle unökonomisch- und mit Speichern, die in den benötigten Größenordnungen nicht  mal im Ansatz denkbar sind- völlig unbezahlbar. Jeder ehrliche Ingenieur wird Ihnen das bestätigen.

Gestatten Sie mir noch ein paar Wort zum Klimawandel. Selbst wenn man an die IPCC Hypothese vom Einfluss des CO2 auf die Temperatur der Atmosphäre glaubt, und das taten ja alle impulsredner, und wenn wir in Deutschland den Klimaschutzplan 2050 zu 100 % erfüllen würden, dann würde dies nach den IPCC Rechenregeln irgendwann, sehr viel später, den (hypothetischen) Anstieg der globalen Mitteltemperatur um ganze 2/1000 °C  mindern. Das ist das klare Ergebnis unter Anwendung der IPCC Rechenregeln und Parameter.

In Worten zwei Tausendstel Grad C weniger Anstieg der globalen Mitteltemperatur

In der Realität und trotzdem gleichzeitigen Akzeptanz der Wirkung von CO2 als Klimagas, ist es noch aber sehr viel weniger. Denn diese 2/1000 Grad beruhen auf einer sog. Equlibirum Climate Sensitivity ECS (d.i. die vermutete Temperaturerhöhung bei Verdopplung der Treibhausgas (CO2) Konzentration – also z.B. von 400 ppm auf 800 ppm-) von 3 °C.

Von diesem hohen Wert hat das IPCC (allerdings nur in einer Fußnote in der SPM des 5. Berichtes) seit vier Jahren Abstand genommen. Aktuelle begutachtete Studien schätzen diesen ECS Wert auf nur noch 0,6 bis 1 °C.

Damit wäre dann

  1. Der deutsche Beitrag von 2/1000 ° nochmals um den Faktor 3 bis 5 kleiner 

und

  1. Die gesamten Klimaschutzaktivitäten weltweit völlig unnötig, weil 0,6 bis 1 ° Erhöhung (irgendwann in den kommenden hundert oder mehr Jahren) keinerlei Gefahr darstellt.

Man könnte diese Fakten auch mit HC Andersen so darstellen:

Der Kaiser hat doch gar keine Kleider an.

Das beginnen immer mehr Länder einzusehen. China und Indien haben sich ohnehin keiner Reduzierung ihrer CO2 Emissionen unterworfen. Die USA und Russland steigen aus und Großbritannien beginnt ebenfalls damit. Das sind aus meiner Sicht – acuh für Deutschland- ermutigende Nachrichten. Bleibt zu hoffen, dass auch in der CDU/CSU in dieser Frage eines Tages die Vernunft wieder Einzug hält.

 

Zum Rest der Veranstaltung:

Die von den Rednern zu Recht vorgetragenen Schwierigkeiten existieren also daher nur, weil wir auf Grund amtlich angefachter Panik (s.o.) ein existierendes, hervorragend funktionierendes Stromversorgungssystem, mit einem schlechten, zunehmende Instabilität und extrem hohe Kosten verursachenden zweiten Stromsystem koppeln.

Nimmt man dieses zweite weg (und deswegen braucht auch niemand auf der Welt, den daraus erhofften Technologieschub) dann wäre alles wieder in Ordnung.  Andere Länder folgen deswegen auch dem deutschen Sonderweg nicht.

Die deutschen Verbraucher würden um hunderte von Milliarden entlastet und wir könnten uns den wirklichen Problemen der Welt zuwenden, bevor irreparabler Schaden entstanden ist.

Ich füge noch eine kurze Präsentation bei, welche die wahnsinnigen Kosten des EEG, sowie die geforderten CO2 Emissionsbemühungen und deren „Erfolg“ belegt.

Zum Klimawandel empfehle ich Ihnen dieses kurze (nur 20 Minuten) Video anzuschauen https://youtu.be/aYtpOtM1UGM es fasst den aktuellen Stand der Forschung zusammen.

 

Eine Kopie dieser Mail geht an einige der Redner und an eine Reihe von Experten

mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/

 

Lesen Sie hier was ein weiterer Teilnehmer der Veranstaltung der Elektroingenieur Prof. Dr. Helmut Alt- der als einer von zweien kurz zu Wort kam- daraufhin der Bundeskanzlerin schrieb:

 

Sehr geehrte Frau Bundeskanzlerin,

sehr geehrte Damen und Herren des 9. Energiepolitischen Dialogs der CDU/CSU im Reichstagsgebäude in Berlin am 24.4.2017,

anknüpfend an die von mir vorgetragene Empfehlung zur Energiewende, mehr Realismus bei den Zielsetzungen zu wagen, möchte ich Ihnen mit den hier beigefügten Anlagen auf der Erfahrungspraxis einer 34 jährigen beruflichen Tätigkeit mit konkreter Handlungsverantwortung im Bereich der seit über 100 Jahren im weltweiten Vergleich sichersten und relativ kostengünstigen Stromversorgung  für unser Land einiges weiterführende zur Begründung meines gestrigen Diskussionsbeitrages  zur Kenntnis geben:

Es ist in einer Wettbewerbsindustrie und insbesondere in der Energiewirtschaft – die das Blut unserer Wirtschaft bereitstellen muss – notwendig, bei der Festlegung der Kraftwerksmixstruktur und der Digitalisierungstiefe auch die Kosten nicht aus den Augen zu verlieren.

Ob wir bei 1 kW Leistungsbereitstellung pro Haushalt (mit der Brille aus dem Übertragungsnetz gesehen), obschon jeder Haushalt die Freiheit hat, bis zu 30 kW dem Netz zu entnehmen, durch digitalen Zugriff auf die Waschmaschinen in den 40 Millionen Haushalten diesen Wert, der sich durch die günstige Gleichzeitigkeit bei der großen Kundenzahl von selbst ergibt, noch verringeren können, scheint mir ausgeschlossen. Es könnte wohl eher viel teurer werden, aber wir haben schon die teuersten Strompreise in Europa.

(40 Millionen Haushalte mal 1 kW/Haushalt macht 40 GW, die weiteren 40 GW sind für die Industrie, macht zusammen rd. 80 GW Jahreshöchstleistung im deutschen Netz!)

In der Stromversorgung besteht wegen der großen Zahl unmittelbar Betroffener die Gefahr, dass man durch steuerungstechnische Eingriffe mitunter die günstige Wahrscheinlichkeitsverteilung bei der großen Zahl der Akteure auch kaputt machen kann, mit dem Ergebnis: „gut gemeint, aber schlecht gemacht“.

Was nicht da ist, geht auch nicht kaputt und muss auch nicht bezahlt werden! Die herstellende Industrie mag das als zweiseitig Betroffene punktuell auch anders sehen.

Ebenso ist jede Vision zur Heranziehung möglicher E-Mobiliät als sinnvoller Beitrag zur Lösung des Stromspeicherproblems, aus der man bei aktiver Netzkupplung der E-Autos an der Ladesäule bestenfalls auf 20 kWh entnehmen könnte, einfach absurd! Denn das ist bereits der maximale Speicherinhalt der meisten E-Auto-Batterien,  der Fahrer muss dann Abends zu Fuß nach Hause gehen. Zur Überbrückung eines wind- und sonnenarmen Tages werden rd. 1,6 TWh = 1.600 GWh = 1.600.000 MWh = 1.600 Millionen kWh benötigt. Entsprechend müssten 80 Millionen E-Autos an ebensovielen Ladesäulen stehen!  Selbst die 1 Million E-Autos sind trotz Subvention bis 2020 nicht erreichbar, dass 80 Millionen davon an Ladesäulen stehen doch wohl erst recht nicht, oder?

Über die Verfügbarkeit von bezahlbaren Stromspeichern Batterieforschungsinstitute zu befragen, birgt die menschlich verständliche Gefahr der zu hohen optimistischen Zukunftsprognose  der eigenen Forschungsobjekte zu Marktfähigkeit inhärent in sich. Beispiele sind die Brennstoffzellentechnologie, das  papierlose Büro, die 100% ige Eigenversorgung mit Strom d.h. Verzicht auf den Netzanschluss, das autonome Autofahren und v.a.m.

Es wäre schön, wenn Sie von der Fraktion aus diese mail unserer verehrten Bundeskanzlerin Frau Dr. Merkel, die ja bei meiner Frage, dem glücklichen Zufall geschuldet, den Versammlungsraum betrat und in Ihrer Rede Ihr besonderes Interesse an diesen Fragen bekundete, zur Kenntnis geben könnten. Frau Dr. Merkel hat mir persönlich bereits am 4. Mai 2004, wo ich mit Ihr zusammen bei einer energietechnischen Tagung in der Adenauerstiftung in Berlin sein durfte, für die übergebenen „anschaulichen Unterlagen zur Energiepolitik“ (siehe Anlage ew) gedankt.

In diesem Zusammenhang möchte ich Ihnen auch den Gastkommentar von Herrn Dr. Löpfe, CVP Nationalrat und Landammann von Appenzell in der NZZ vom 5.4.2017 gerne ans Herz legen, damit uns in Deutschland ebenfalls wieder Mut zu einer vernünftigen Energiepolitik in der großen Politik angedeihen möge.

 

Ihr Helmut Alt

 




Wo Klimaschutz­programme bestimmen, spielen Sinn und Geld über­haupt keine Rolle mehr

Die Berliner Stadtreinigung reinigt nun auch die Luft vom Pflanzendünger CO2

Beispiele zum Beleg gräbt in schöner Regelmäßigkeit die (Des-)Informationsseite unserer Klimaberaterin aus, allerdings – im Gegensatz zum Autor – um damit die großen Erfolge im Klimakampf zu preisen.
Klimaretter.Info: [1] Stadtreinigung will sich von CO₂ reinigen
wollen die Berliner Stadtreinigungsbetriebe (BSR) bis 2025 weitere 67.000 Tonnen CO2 einsparen. Dazu unterzeichneten der mit rund 5.000 Beschäftigten größte kommunale Entsorger Deutschlands und der Berliner Senat am Donnerstag ihre dritte Klimaschutzvereinbarung, wie beide Partner am Donnerstag mitteilten.

In der Pressemitteilung der Stadt Berlin kann man es dann in Fakten und Zahlen nachlesen. Je mehr (Geld-)Sorgen ein Bundesland hat, um so, mehr muss es sich zur Weltrettung verpflichten. Denn das Geld der Armen ist ja ein Mehrfaches dessen der Reichen wert.

Senat Berlin, Pressemitteilung: [2] Auf freiwilliger Basis verpflichtet sich darin die BSR zum dritten Mal in Folge, die Kohlendioxidemissionen zu reduzieren. So soll durch gezielte Investitionen und Maßnahmen in verschiedenen Bereichen bis 2025 eine CO2-Entlastung von 67.000 Tonnen erreicht werden.
… Berlin will bis zum Jahr 2050 klimaneutral werden … Klimaschutzvereinbarungen mit landeseigenen Unternehmen wie der
BSR setzen ein Zeichen für diese gemeinsame Anstrengung für mehr Klimaschutz in Berlin.

Für eine so wichtige Aufgabe müssen sogar Wahlversprechen hintenangestellt werden. Wer dachte, mit der Wahl von GRÜN in Berlin würde sich (Wahl-)Politik ändern, sieht sich getäuscht (dass GRÜN beim Versuch, Diäten heimlich zu erhöhen, ebenfalls sofort mit dabei ist, kann man wiederum in BW sehen [6]):
DER TAGESSPIEGEL: [3] Rot-Rot-Grün Wasser und BSR werden nicht billiger

… Nein, in diesem Jahr steigen die Gebühren der BSR für die Müllabfuhr nicht noch einmal – die Stadtreinigung hat schon erhöht im Januar. Und die Wasserbetriebe bekommen nicht noch mehr Geld – deren Tarife waren schon so hoch, dass das Bundeskartellamt einschreiten musste…. Und früher wetterten die Grünen auch gegen die hohen Gebühren. Zumal diese Haushalte mit kleinem Budget besonders hart treffen.

Man muss das verstehen. Schließlich sind 130 Millionen EUR zur CO2-Minderung auch kein Pappenstiel. Wie gut, dass man sich da wenigstens beim Geld-Ausgeben zuverlässig auf Kollegialität verlassen kann.
Stefan Tidow (Bündnis 90/Die Grünen, Politologe) erklärt: [2] „Die BSR bleibt ein verlässlicher Partner des Landes. Das gilt auch, wenn es darum geht, die ehrgeizigen klimapolitischen Ziele Berlins zu erreichen … Für BSR-Chefin Dr. Tanja Wielgoß ist Klimaschutz Teil der Strategie des Unternehmens: „Wir ruhen uns nicht auf den Erfolgen der letzten Jahre aus, sondern legen nochmal eine Schippe drauf … Dafür werden wir in den nächsten Jahren 130 Millionen Euro investieren.“
Die „Erfüllungsgehilfen“ – nein, natürlich die Fachmannschaft der unteren Ebenen, hat man dafür schon gebildet:
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden,
und mit diesen soll es gelingen, den neuen Treppenwitz der Geschichte, von Klimaretter freudig verkündet: Reinigen der Atmosphäre vom lebensnotwendigen Pflanzennährstoff CO2, umzusetzen. Schmutz bleibt Schmutz und der Auftrag ist Schmutz zu entfernen, Denken findet sich nicht unter der Rubrik Beauftragung.

Zum Glück gelingt dies auf diese Art nicht, aber die Kosten dafür sind trotzdem mehr als nur Peanuts.

Wieder ein grober Nutzen- / Kosten-Vergleich

Maßnahme der Berliner Stadtreinigung: 130 Millionen Euro Ausgaben zur Vermeidung von 67.000 Tonnen CO2 bis zum Jahr 2025!
Man rechne einmal kurz nach:
67.000 Tonnen CO2 ergeben 8,7 x 10-6 ppm CO2-Anteil in der Atmosphäre (Anmerkung: 1 ppm = 0,000001).
Pro Jahr „entgiftet“ die Berliner Stadtreinigung die Atmosphäre damit um 0,0000011 Stück CO2-Moleküle pro 1 Millionen Luftmolekülen, an denen die klimaerhitzende Strahlung nicht mehr zurückprallt und die Welt aufheizen könnte.

Die segensreiche Wirkung auf das Weltklima ist entsprechend fulminant:
Der aktuelle Wert von ca. 400 ppm CO2-Anteil in der Atmosphäre „verringert“ sich dank der BSR in den 8 Jahren auf 399,9999913 ppm; oder um ca. 0,0000011 ppm / pa.
Als Nutzen ergibt sich eine (rechnerische) Temperaturverhinderung beim (zu hohen) IPCC-Forcing in den acht Jahren von:
-93 x 10-9 °C, ausgetippt ca. minus 0,0000001 °C, oder minus 0,0000000116 °C / pa, sehr wahrscheinlich davon jedoch nur ein Drittel, wenn das realistischere Forcing von 1 °C / ppm-Verdopplung angesetzt wird.

Würde die BSR diese Maßnahme konsequent bis zum Jahr 2100 weiterführen (rein hypothetisch, aber wenn man diese mit dem Jahr 2025 enden lässt, wird die Anzahl an Nullen nach dem Komma viel zu lang), würde durch die generöse Maßnahme der Berliner Stadtreinigung die Welttemperatur um ganz, ganz grob maximal:
0,0000006 °C*,
aber eher unter 0,0000002 °C* „verringert,
und das zu (fiktiven) Kosten von 10,8 Milliarden EUR.
Anm.: Hoffentlich haben sich beim Schätzen nicht irgendwo Nullen verschoben. Aber auf ein paar Nullen mehr oder weniger kommt es (sprichwörtlich) wirklich nicht an.
*Zur Abschätzung: pauschaliert die Hälfte eines Einmalimpulses dieser CO2-Menge, die in diesem Zeitraum bereits erhebliche Rückdiffusion nicht berücksichtigt.

Fester Glaube kann Berge versetzten

Diese wirklich monströsen Erfolge im Klimakampf der Stadt Berlin werden von einem ehemaligen Büroleiter der Frau C. Roth und einer geschichtspolitisch promovierten BSR-Chefin vollmundig proklamiert:
Stefan Tidow erklärt: [2] „Die BSR bleibt ein verlässlicher Partner des Landes … Das gilt auch, wenn es darum geht, die ehrgeizigen klimapolitischen Ziele Berlins zu erreichen ...
… Für BSR-Chefin Dr. Tanja Wielgoß ist Klimaschutz Teil der Strategie des Unternehmens: „Wir ruhen uns nicht auf den Erfolgen der letzten Jahre aus … Dafür werden wir in den nächsten Jahren 130 Millionen Euro investieren.“

Man erkennt überdeutlich, dass diese „Eliten“ noch nie über ihre auswendig gelernten Sprechblasen nachgedacht haben und Fake-News in Reinkultur präsentieren. Leider verhalten sich die berichtenden Redakteure ebenso, womit diesen „Führungskräften“ die Blamage einer reflektierenden Argumentation erspart bleibt.
Für einen noch nicht so schlimm denkruinierten Bürger stellt sich jedoch die Frage, ob Abwarten und Anpassung an das sich stetig verändernde Klima nicht die bei Weitem sinnvollere Variante wäre.

Solche gedanklichen Abweichungen wären allerdings für Personen, welche im politisch beeinflussten Umfeld etwas werden möchten, höchst gefährlich. Denn unsere Kanzlerin hat mit ihrer Bestätigung des „Stern-Reports“ in ihrer Rede am 5.Juli 2016 beim VII. Petersberger Klimadialog genau dieses verneint:
Fr. Merkel: … Ich will diese Mehrkosten nicht kleinreden. Aber wir wissen spätestens seit dem Stern-Report, dass sie sich langfristig – eigentlich schon mittelfristig – bezahlt machen. Wenn wir sehen, wie viele Folgen des Klimawandels wir ansonsten zu gewärtigen haben, dann wissen wir, dass sich das allemal lohnt.
Und wenn es unsere Kanzlerin so sicher weiß. Wer wagt es, dieser ausgewiesenen Fachfrau und einem von einem leibhaftigen „Sir“ geschriebenem Report ([8]: … Auftragsarbeit eines Beamten für eine Regierung mit einem politischen Programm …“) zu widersprechen? – nur jemand, der seinen sicheren, politischen Selbstmord als Planziel vorhat.
Im Achgut-Artikel [8] Unbequem ist stets genehm, ist beschrieben, wie ein Bundespräsident dieses „Problem“ eigenständigen Denkens vorbildlich gar nicht erst aufkommen lässt.

Fast freut man sich inzwischen über „ehrlichen“ Beschiss

Eine Anmerkung kann sich der Autor nicht verkneifen. Ihm sind Versorger-Vorstände wie der hoch-bezahlte der Nürnberger N-Ergie da fast schon „lieber“. Bei solchen merkt man, dass sie aus persönlichen Vorteilen (bekommt, wie ein SPD-Verantwortlicher der Stadt extra in der Zeitung betonte „bewusst“ ein so hohes Gehalt) heraus ihre Kunden und den politisch besetzten Aufsichtsrat mit ihren „Weltrettungsmaßnahmen“ einfach nur über den Tisch ziehen wollen [4] [5]. Dagegen lässt sich sachlich argumentieren.

Wenn Politologen – die modernen Theologen der Ideologien -, inzwischen scheinbar „massenhaft“ von UNIs produziert, es „vollbringen“, weiß man nie so recht, wie argumentativ dagegen anzugehen wäre. Man fragt sich immer: Glauben die das wirklich – fiele ihnen in aller Regel ja nicht schwer, da selten eine Ausbildung zum Fachgebiet vorliegt – oder machen sie es auch nur zu ihrem Vorteil? Das Ergebnis: Hohe, gut bezahlte Posten im Einflussbereich der Politik, ist allerdings das Gleiche:
BSR Vorstandsvorsitzende, Tanja Wielgoß: WIKIPEDIA Studium: Politik-, Geschichts- und Wirtschaftswissenschaften, Dissertation: „Der Parti socialiste und die Sozialdemokratische Partei Deutschlands im europäischen Integrationsprozess – 1989-1999“,
Stefan Tidow (Bündnis 90/Die Grünen, Politologe): Politikwissenschaft, Volkswirtschaftslehre und Pädagogik, ehemals Büroleiter von C. Roth und J. Trittin.

Als Trost hilft da nur: Nicht alles von dem ausgegebenen Geld ist verpuffender Öko-Weihrauch. Zumindest ein Teil des Invests hat ja auch einen praktischen Nutzen. Zudem entstehen bei den nach Gewerkschaftsmeinung sowieso viel zu „schlanken“ öffentlichen Unternehmen neue Arbeitsplätz, die vorher unbekannt waren und welcher (dafür zahlende) Bürger könnte etwas gegen Arbeitsplätze haben:
[2] … Dazu gehören BSR-Beschäftigte, die als Klimalotsen in ihren jeweiligen Organisationseinheiten für „Gutes Klima“ sorgen, indem sie die Energiesparziele der BSR mit Tipps und Kniffs vor Ort voranbringen …
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Und immer daran denken: Die Grünen fordern in jedem Bundesland ein Klimaschutzgesetz. Dann kann jedes Kind das Land zu mehr Aktivismus verklagen und wird von den entsprechenden NGOs und Interessenverbänden dazu hofiert:
Klimaretter.Info: [7] Indisches Mädchen verklagt Regierung
Richter entscheiden nach dem Gesetz und nicht nach dem Verstand. Hier gibt es wirklich einen der ominösen Kippunkte, ab dem Wahnsinn eine Eigendynamik entfalten kann, wie es aus der Geschichte bekannt ist.

Quellen

[2] Berlin, Senatsverwaltung für Umwelt. Verkehr und Klimaschutz: Pressemitteilung vom 20.04.2017 BSR will bis 2025 weitere 67.000 Tonnen CO2 einsparen

[3] DER TAGESSPIEGEL: Rot-Rot-Grün Wasser und BSR werden nicht billiger

[4] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[5] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – koste es was es wolle

[6] STUTTGARTER ZEITUNG: Rückkehr zur Abgeordneten-Pension Vor Jahren eine Großtat, heute nur Murks

[7] Klimaretter.Info: Indisches Mädchen verklagt Regierung

[8] Achgut.com: Unbequem ist stets genehm: Die Irrtümer des Klimawarners Joachim Gauck




Eine erste komplette Fach­information über Klima und Energie in Youtube

Der Anlass

„Klima, Energiewende und Kernkraftnutzung“ stehen seit geraumer Zeit im Fokus von Politik, Medien und zahlreicher wirtschaftlicher oder ideologischer Interessengruppen. Alle drei Themen sind komplex und in ausreichender Tiefe ohne Weiteres nur Fachleuten zugänglich. Sie verändern aber unser Leben. Die aktuelle Politik, und mehrheitlich die ihr folgenden Medien, beanspruchen trotz ihrer fachlichen Unkenntnis die Deutungshoheit. Mit den ihnen zur Verfügung stehenden, vom steuerzahlenden Konsumenten unfreiwillig aufgebrachten Mitteln ist dies leicht durchsetzbar.

Video Folge 1: Ist der Klimawandel vom Menschen verursacht? Das Klimagespräch mit Anton und Beate  (Extremwetter, Weltklimarat IPCC, Gletscher, Meeresspiegel)

Und es wird tatsächlich mit einer Konsequenz durchgesetzt, die fatal an die mediale Propaganda der ehemaligen DDR erinnert. Diese Deutungshoheit geht beispielsweise so weit, dass für das öffentlich rechtliche Fernsehen die Kernenergie gar nicht mehr existiert. Allenfalls über ihren deutschen Abbau und deren Kosten gibt es noch vereinzelt Meldungen. Die interessanten Weiterentwicklungen hin zu neuer, inhärent sicherer Reaktortechnik (Schnellspaltreaktoren) in Russland, China und den USA, die keinen nennenswerten radioaktiven Abfall mehr erzeugen und die Brennstoffreichweite auf viele hundert Millionen Jahre ausdehnen, werden hierzulande totgeschwiegen.

Mit „Klima“ verhält es sich nicht viel besser. Der Gegensatz zwischen umfangreicher Klimafachliteratur und dem, was die Medien zu berichten für richtig erachten, hat inzwischen absurde Ausmaße erreicht. Selbst  korrekte Berichtsteile in den IPCC – Reports werden verschwiegen, wenn sie nicht in das gewünschte politisch/ideologische Konzept der deutschen Energiewende passen. Neutrale Fachleute in Interviews oder Talk Shows, die fachlich fundierte Gründe gegen die Hypothese eines anthropogenen Klimawandels anführen können, werden erst gar nicht zugelassen.

Klima-Alarmisten behaupten zudem permanent, dass sich Klimakritiker nicht auf Diskussionen einlassen. In Wirklichkeit verhält es sich genau umgekehrt. Alle Aufforderungen und Einladungen von EIKE an Fachvertreter des poltischen Mainstreams beispielsweise, sich doch bitte einer öffentlichen Diskussionen mit anderen Meinungen zu stellen, wurden nicht einmal einer Antwort für Wert befunden. Ein wenig besser stellt sich allenfalls die Situation bei der Energiewende dar. Der Bürger (infolge steigender Stromkosten) und die energieintensive Industrie (infolge zunehmend einschneidender, gesetzlich erzwungener Energiesparmaßnahmen) bekommen es nämlich hautnah zu spüren. Nicht nur in qualitativ guten Medien ist daher bereits deutliche Kritik zu vernehmen.

Die Ursachen

Trotz zahlreicher kritischer Beiträge in Internetblogs ist die Informationslage der uninformierten Bevölkerung in allen drei genannten Themenbereichen noch völlig unzureichend. Auf die vielfältigen Ursachen einzugehen verbieten Platzgründe. Immerhin trägt die stetig abnehmende technische Kompetenz und auch das geringe Interesse der Bürger an technischen Zusammenhängen zu dieser Misere maßgeblich bei. Stoffvermittelung und Spaß der Schüler an technischen und naturwissenschaftlichen Fächer in den Schulen nehmen ab, weil gut ausgebildete Fachlehrer inzwischen zu den bedrohten Spezies zählen.

Wer sich die Mühe macht, über Jahre die einschlägigen Pisa-Studien zu verfolgen, erkennt dann auch die Folgen. Wir erleben einen dramatischen Kompetenzverfall deutscher Schüler in Technik, Naturwissenschaften und Mathematik. Entwicklungsländer wie beispielsweise Vietnam oder auch Länder wie Estland haben uns hier schon lange den Rang abgelaufen. Man erkennt es an der zunehmenden Zahl von Spitzenforschern dieser Nationen an US-Universitäten. Die deutschen Kultusminister kümmert dies wenig und die Medien schon gar nicht: Fußball ist hierzulande wichtiger. Deutschland ist zwar immer noch stark in der industriellen Fertigung, die wirklichen Innovationen finden aber zunehmend nicht mehr in unserem Lande statt. Ganz Zukunftsfelder, stellvertretend seien nur die Gentechnik genannt, werden in Deutschland verteufelt. In Deutschland ansässige Weltfirmen wie BASF oder Bayer haben hier schon lange die Konsequenz gezogen und diese Sparten ins Ausland verlegt.

Umso mehr sollte korrektes Informieren des normalgebildeten Bürgers zur Pflichtaufgabe derjenigen zuständigen Fachleute gehören, die noch nicht resigniert und sich mit den Verhältnissen abgefunden haben. Fachlich korrekte Sachinformation wird im Internet zwar angeboten, aber die Spreu vom Weizen zu trennen ist für den Laien schwierig.  EIKE gehört zu den wenigen Institutionen dieses Landes, die bei der Öffentlichkeitsaufklärung über die in Rede stehenden Themen an erster Stelle stehen – zumindest den Besucherzahlen seines Blogs nach. Erreicht wurde hier schon viel, aber noch lange nicht genug. Angesichts dieser misslichen Situation dachten wir über einen neuen Ansatz nach.

Unsere Idee einer Lösung

Unser Ansatz besteht darin, mit dem leicht konsumierbaren „Video“ eine Kost anzubieten, die mit anderer Darreichung wegen der Komplexität des Themas nur schwer verdaulich wäre. Unsere Bemühungen bestehen darin, fachlich einwandfrei aber doch allgemeinverständlich und vor allem unterhaltsam die Hauptlinien unserer drei Themen nachzuzeichnen und verständlich zu machen. Ziel ist es, eine fachlich korrekte Informationsplattform zu bieten. Dem Zuschauer werden die wichtigsten Ergebnisse, Entwicklungen aber auch die vorhandenen Lücken im aktuellen Wissensstand vermittelt. Besondere Wichtigkeit wird der Angabe von Quellen gewidmet. Der Zuschauer des Videos erhält auf diese Weise ein zutreffendes Bild vom aktuellen Stand der Forschung und Entwicklung. Von Meinungen oder nicht objektiven Wertungen sehen wir so weit als möglich ab. Die selbständige Meinungsbildung des Zuschauers steht an erster Stelle.

Mit dem ersten Video, einer Amateurarbeit, die nur unsere Mühe, Zeit und fast keine Kosten in Anspruch nahm, ist nun der Anfang gemacht. Wenn es Ihnen gefällt und Sie der Meinung sind, dass es weiterer Verbreitung wert ist, gibt es nur den folgenden Weg: Geben Sie es bitte an so viele Bekannte wie möglich weiter und sprechen Sie dabei genau wieder diese gleiche Bitte aus. Wichtig wäre insbesondere die Weitergabe über Facebook, falls die betreffenden Weitergeber dieses Medium benutzen.

Wem der Youtube Link nicht ausreicht und das Video gerne auf dem eigenen Rechner abspeichern oder es per CD verschenken oder verschicken möchte, wird die Möglichkeit geboten, es per Dropbox für sich herunterzuladen. Hier können Sie es herunterladen – ein bisschen Geduld ist bei 184 MB allerdings angebracht. Die „abgespeckte“ Version für Smart Phones hier. Wir weisen an dieser Stelle auch auf den Video-Kanal von EIKE hin, den Sie auf der Hauptseite, rechte Spalte unter „Kategoien – Videos“ finden. An diesem Youtube – Kanal wird noch gearbeitet (Erstellung einer übersichtlichen Struktur), was wegen der wichtigeren Umstellungsarbeiten von TYPO3 auf WORDPRESS und begrenzter manpower nicht von Anfang an möglich war.

Wir danken abschließend den zahlreichen Kollegen, die mit ihren Veröffentlichungen, Vorträgen, Kritiken und Vorschlägen direkt und indirekt am Gelingen der Videos beigetragen haben und auch weiterhin an den Folgevideos mitwirken. Da wir aus Platzgründen nicht alle Helfer nennen können, beschränken wir uns auf

Dipl.-Ing. Michael Limburg, Dipl.-Meteorologe Klaus Puls, Prof. Dr. Carl Otto Weiss, Prof. Dr. Friedrich-Karl Ewert, Dr. Siegried Dittrich, Dr. Dietmar Ufer, Dr. Rainer Link, Dr. Ing. Andreas Geisenheiner, Dipl.-Ing. Michael Principato, Dr. Götz Ruprecht und Dr. Armin Huke

Die Autoren und Hersteller der Videos

Prof. Dr. Horst-Joachim Lüdecke                                                                                           Dipl.-Ing. Klaus Maier