Neues vom Wissen­schaftlichen Beirat Globale Umwelt: Neue Erbschafts­steuer: denn Oma war Klimasünder

Und deshalb sollen sie jetzt im Rahmen eines großen „Gerechtigkeitsprojekts“ zur Kasse gebeten werden. Denn während andernorts die Menschen in Armut und Unschuld lebten, fuhren unsere Eltern mit dem Volkswagen-Käfer in den Italie-Uurlaub. Oder kauften sich später womöglich einen Daimler.

Da unsere Altvorderen aber nicht mehr da sind, um für ihr frevelhaftes Tun abgestraft zu werden, sollen jetzt die Erben ran. Neun deutsche Professoren, sie bilden den „Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen“ (WBGU) fordern in ihrem aktuellen Gutachten eine originelle Erbschaftssteuer, so etwas wie eine Klimaschuld-Abgabe auf geerbtes Vermögen. Es es sei „ethisch geboten, Vermögen nicht allein privat an die eigenen Nachkommen zu transferieren, sondern sie zur Gestaltung einer gemeinsamen Zukunft zu nutzen“.

Der (WBGU) ist seit Jahren für steile Thesen und Empfehlungen bekannt. Eines der bekanntesten Mitglieder des Beirates ist Hans Joachim Schellnhuber, Direktor des Potsdam Institutes für Klimafolgen-Forschung, der zeitweise mit dem Titel „Klimaberater der Kanzlerin“ geschmückt wurde. Schon vor 5 Jahren verlangten er und seine Autoritäten nichts weniger als einen „Gesellschaftsvertrag für eine Große Transformation“ und wollten den „fossilnuklearen Metabolismus“ (Stoffwechsel) der Industriegesellschaft beenden und eine „klimaverträgliche Weltgesellschaft“ schaffen. Daraus ist bisher nix geworden.

Dennoch können die Herrschaften nicht davon ablassen, ihre totalitären Vorstellungen der Bundesregierung in Form eines Gutachtens zu überreichen. Im kommenden Sommer findet in Hamburg der G20-Gipfel statt und die deutschen Geistesgrößen empfehlen den teilnehmenden Ländern regulatorische „Top-Down-Strategien“, also eine Art gut gemeinter Verbotskultur von oben herab. Andreas Mihm kommentiert das im Wirtschaftsteil der FAZ: „Autorität und autoritär sind nicht nur sprachlich näher beieinander als man denkt“.

Übernommen von ACHGUT Hier




Die Verstaatlichung der Energiewirtschaft

Beängstigend waren von Anbeginn die vorhersehbaren, zerstörerischen  Auswirkungen auf die Wirtschaft und die privaten Verbraucher., denn die Ruinierung der Energieversorgung eines Industrielandes bedeutet die Vertreibung derjenigen Unternehmen, die dem Bankrott durch Flucht ins Ausland entkommen können, während die übrigen schlicht untergehen.  Die privaten Verbraucher werden zuerst durch immer höher steigende Energiepreise ausgeplündert, bevor sie auch noch ihre Arbeitsplätze verlieren.

Nun muss man sich fragen, ob das so gewollt war. Hat die Regierung im Auftrag einer finsteren Macht beschlossen, ihr Land in den Staatsbankrott zu treiben ?  Zu den Zeiten des Kalten Krieges hätte man sicherlich diese Möglichkeit erwogen, denn der Untergang des Kapitalismus und seiner westlichen Vertreter war schließlich tatsächlich das Ziel des uns nicht wohl gesonnenen Warschauer Paktes.

Heutzutage ist ein solcher Verdacht natürlich absurd. Wenn es aber nicht die Absicht der Regierung war, das Land über die Zerstörung seiner Energieversorgung kaputt zu machen – was war dann der Grund für ihre Handlungsweise ?

Die beiden einzig plausiblen Antworten auf diese Frage sind unendlich peinlich.

Die Regierung:

Der Anlass für diesen krassen Kurswechsel, der zu Recht als „Wende“ bezeichnet wurde, war eine politische strategische Überlegung: Der Opposition, speziell den Grünen , sollten alle Argumente abgenommen werden – indem die Regierung plötzlich selbst deren Linie vertrat.

Sie hat ungeprüft ideologische Konzepte der Grünen übernommen.  Sie hat auf die Zuziehung von externem fachlichem Sachverstand verzichtet; andernfalls wäre das Ausmaß des Unsinns nicht so extrem geworden.  Und in ihren Ministerien fehlte es allem Anschein nach an dem nötigen Sachverstand; insbesondere im Umweltministerium, in dem es direkt nach der Amtsübernahme durch Trittin einen Exodus von Fachleuten und eine Einstellungswelle von grün-ideologisch geprägten Mitarbeitern gab, die bis heute – zwei Regierungen später – immer noch die Arbeit des Hauses bestimmen.

Die Folgen dieser Wende interessierten die Kanzlerin ganz offensichtlich überhaupt nicht.  Es ging nur um den Machterhalt.

Das Parlament:

Man hätte daraufhin erwarten können, dass die Abgeordneten, unter denen sich schließlich eine nicht geringe Anzahl von Fachleuten und Managern befindet, die Regierungspläne zu Konfetti zerreißen würden. Aber es lief völlig anders ab.

Unsere Parlamentarier haben sich – mit wenigen ehrenwerten Ausnahmen –  wie die sprichwörtlichen Lemminge verhalten, als sie sowohl über die Energiewende-Pläne als auch über das Kernkraft-Moratorium und den Kernkraft-Ausstieg abstimmten.  Es war offenbar eine Mischung aus verschiedenen Faktoren, die sie dazu veranlaßten: Die Opposition aus SPD, Grünen und Linken sah erstaunt, wie ihre eigenen Forderungen von der Regierung erfüllt wurden. Die Regierungsfraktionen standen unter dem Druck  ihrer   Fraktionsführungen.  Zudem fehlte der Mehrheit die fachliche Kompetenz zur Beurteilung der Konsequenzen.  Durch Zeitdruck wurde die Zuziehung externen Sachverstands verhindert. Und schließlich herrschte eine große Angst vor den Medien, deren überwiegend grün-rot orientierte Redakteure ihrerseits einen Druck ausübten, den alle Politiker fürchten.

Und so beschloß der gesamte Bundestag fast einstimmig den Einstieg in das „erneuerbare Zeitalter“ (Zitat aus dem Energiekonzept) – und de facto den Untergang ihrer Nation.

Dieser Vorgang dürfte den Historikern noch viel Stoff für Analysen bieten.

Es ist diese praktisch einstimmige Zustimmung des gesamten Parlaments zur Energiewende und zum „Atomausstieg“, die wie eine schwere Hypothek auf den Altparteien und ihren Abgeordneten liegt.  Diese Hypothek liegt auch auf dem nun neu gewählten Bundestag, denn die maßgeblichen Parteien sind immer noch dieselben – mit Ausnahme der FDP – und auch die meisten der neuen Abgeordneten sind die alten, die der energiepolitischen Blamage ihre Zustimmung gegeben hatten.

Jede nur denkbare Regierungskoalition wird aus Parteien bestehen, die alle dafür waren. Und sie müßten nun im Grunde fast alles, was sie vor nicht langer Zeit mitbeschlossen haben, wieder zerschlagen.

Dieses Dilemma in Verbindung mit den unausweichlichen, sehr bald fälligen drastischen energiepolitischen Maßnahmen  eröffnet nun leider ziemlich erschreckende Aussichten. Denn es besteht die Möglichkeit, dass an Stelle einer Rücknahme der falschen Entscheidungen – insbesondere das EEG betreffend – die letzten Hemmungen fallen und der bereits eingeleitete Prozeß der Planwirtschaft direkt in eine Verstaatlichung des Energiesektors führt.

Schließlich bietet ein weitgehend verstaatlichter Energiesektor für eine Regierung, die eine mit Gesichtsverlust verbundene Revision des Zerstörungsprogramms fürchtet, eine Reihe von vorübergehenden Vorteilen:

  • Es geschieht schließlich etwas; man zeigt Handlungsfähigkeit.

  • Immer neue, verschlimmbessernde Reparaturmaßnahmen , die durch die gegenüber wirtschaftlichen Fehlern gnadenlose Marktwirtschaft erzwungen werden, sind nun nicht mehr nötig.  Denn die Marktwirtschaft wird ja in diesem Sektor abgeschafft.
  • Man kann nun mit vielen Milliarden Euro die selbst verschuldeten und immer neuen Probleme vorübergehend „heilen“.
  • Es gibt neue Behörden und viele schöne Pöstchen für verdiente Parteisoldaten.
  • Und man gewinnt Zeit. Nicht sehr viel, denn nach maximal zwei  Jahren dürften alle Verstaatlichungskosten, Firmenaufkäufe – (bevorzugt: notleidende Stadtwerke) -, Subventionen, Investitionszuschüsse, Kapazitätsvorhaltungs-Prämien für stillstehende Kraftwerke  und soziale Hilfsprogramme für Energiekosten-geschädigte Bürger die Finanzkraft des Bundes übersteigen.  Dann steckt der Karren zwar noch viel tiefer im Dreck, aber der Zeitgewinn wäre es der Politik vermutlich wert.

Pläne, Visionen und Gesetze

Wer einen Blick in die Zukunft wagen möchte, tut gut daran, die bisherige Entwicklung genau in Augenschein zu nehmen.  Wir kennen die Programme,  die unsere Regierung seit 2009 auf dem Feld der Energiepolitik beschlossen hat und wir kennen die bisherigen Ergebnisse, heute, gerade einmal 4 Jahre später.

Sie sind überaus aufschlußreich und erlauben eine Beurteilung der Qualität der Regierungsarbeit – und daher gestatten sie auch eine Prognose über die künftigen  Schritte der Regierung  in diesem volkswirtschaftlich extrem wichtigen Sektor. Um eine Bewertung der deutschen Energiepolitik zu erhalten, genügt der Blick auf die Aktionen der Bundesregierung seit dem Sommer des Jahres 2009.

Im August des Jahres 2009  wurde das Gesetz zum Ausbau von Energieleitungen im   380 kV-Höchstspannungs-Übertragungsnetz (EnLAG) verabschiedet.

  • ♦ In der gegenüber 2009 leicht modifizierten Fassung  gilt heute eine Planung von 1.855 km.  Zweck dieses enormen Netzausbaus, der bisher nur das Höchstspannungs-Übertragungsnetz betrifft, ist vor allem der Transport des in Norddeutschland fern von den Verbrauchszentren erzeugten Windstroms nach West- und Süddeutschland. Von dem noch viel gewaltigeren Ausbau der Mittel- und Niederspannungsnetze, der durch die flächendeckend vorhandenen Solarstrom- und Windkraftanlagen mit ihrem gesetzlich garantierten Einspeisevorrang verursacht wird, ist dabei noch gar nicht die Rede.

Am 28. September 2010 beschloss die Regierung dann das „Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare Energieversorgung“, das nach der wahrlich größenwahnsinnigen Feststellung des Bundesumweltministeriums „die energiepolitische Ausrichtung Deutschlands bis 2050 beschreibt“.

Wesentliche Ziele darin waren:

  • Reduzierung der Treibhausgasemissionen bis 2020 um 40 % gegenüber 1990.
  • Erreichen eines Anteils der „erneuerbaren“ Energien an der Stromerzeugung von 50 % bis 2030; von 65 % bis 2040 und von 80 % bis 2050.
  • Bei diesen Zielen handle es sich um „ehrgeizige Klimaschutzziele“.
  • Zur Kernenergie liest man im Energiekonzept: „Der notwendige Umbau der Stromversorgung hin zum (wörtlich) erneuerbaren Zeitalter mit der Perspektive 2050 wird den traditionellen Energiemix (gemeint sind Kohle und Kernkraft) deutlich verändern.  Ein solcher Prozeß benötigt nicht nur Zeit, sondern muss auch wirtschaftlich vernünftig ausgestaltet werden.“ Dann kommt der entscheidende Satz:                                                                                                                
  • „Um diesen Übergang zu gestalten, brauchen wir noch zeitlich befristet die Kernenergie und werden deshalb die Laufzeiten (der 17 KKW) um durchschnittlich 12 Jahre verlängern“.  Und noch besser: „Darüber hinaus werden die Regelungen über Sicherheitsanforderungen an die deutschen Kernkraftwerke im Rahmen einer 12. Atomgesetz-Novelle erweitert und auf technisch höchstem Niveau fortgeschrieben.“

  • Zum Endlager für Kernkraft-Abfälle: „Dies (Anm.: das Endlager Konrad) wird möglichst zügig errichtet und in Betrieb genommen. Für 90 % der anfallenden radioaktiven Abfälle ist dann ein sicheres Endlager vorhanden.“  Zum Thema hochradioaktive Abfälle steht dort: Die Erkundung (Anm.: des Salzstocks Gorleben) wird ab Oktober 2010 ergebnisoffen wieder aufgenommen. In einer vorläufigen Sicherheitsanalyse werden bis Ende 2012 alle bisherigen Ergebnisse über den Salzstock zusammengetragen und einer internationalen Expertenprüfung unterzogen. Darauf aufbauend können wir die Erkundung zielgerichtet abschließen.“
  • Zur Abtrennung und Speicherung von CO2 (CCS):  „Bis 2020 sollen zwei der 12 EU-weit förderfähigen CCS-Demonstrationsvorhaben gebaut werden.
  • ♦ „Wir wollen mittelfristig die verfügbaren deutschen Potenziale für Pumpspeicherwerke im Rahmen der technischen und wirtschaftlichen Möglichkeiten erschließen.“
  • „Bis 2020 sollen 1 Million Elektrofahrzeuge in Deutschland fahren;  bis 2030 sollen es 6 Millionen sein.“
  • Am Schluß wird ausführlich „die Einbettung (dieser Pläne und Bemühungen) in die europäische Energiepolitik“ versprochen.

Nur 8 Monate später: Ein Grundpfeiler der Stromversorgung wird zerstört

Kurz nach dem durch ein schweres Erdbeben mit  nachfolgendem katastrophalem Tsumani verursachten Reaktorunfall in Fukushima verkündete am 14. März 2011 die Bundeskanzlerin eine auf 3 Monate befristete Aussetzung der gerade beschlossenen Laufzeitverlängerung  – das sog. Moratorium.  Am darauf folgenden Tag teilte sie mit, dass die 7 ältesten deutschen Kernkraftwerke während des Moratoriums abgeschaltet werden sollten. Auch das seit 2009 abgeschaltete KKW Krümmel sollte in dieser Zeit außer Betrieb bleiben.

Weil die fachlich zuständige Reaktorsicherheits-Kommission allen Reaktoren eine sehr hohe Sicherheit bescheinigte,  berief die Regierung eine sogenannte Ethik-Kommission, die dann unbelastet durch Fachkenntnisse und wunschgemäß den Kernkraftausstieg befürwortete.

Am 6. 6. 2011 beschloss die Regierung ein Energiepaket mit dem Titel „Der Weg zur Energie der Zukunft – sicher, bezahlbar und umweltfreundlich“. 

Es war streckenweise eine Neuauflage des Papiers vom September 2010. Aber durch das begleitende 13. Gesetz zur Änderung des Atomgesetzes wurde die Laufzeitverlängerung vom Oktober 2010 am 6.8.2011 zurückgenommen.

Diese sachlich völlig unbegründete und rein politisch-taktische Kehrtwendung bezüglich der Rolle der Kernenergie zerstörte einen Grundpfeiler der deutschen Stromversorgung, denn die zuvor allein durch Kohle- und Kernkraftwerke sichergestellte Grundlast-Stromerzeugung wurde plötzlich allein den Kohlekraftwerken auferlegt. Das war nicht nur ein schwerer Schlag gegen die Versorgungssicherheit der Wirtschaft und der Verbraucher, sondern zugleich auch ein Schlag gegen die hochfliegenden Pläne mit der stufenweisen und weitgehenden Übernahme der Stromversorgung durch die „Erneuerbaren“, die nun auch alle Kernkraftwerke ersetzen sollten.  Diese Vision wurde nun vollkommen illusorisch, weil die wegfallende große Grundlast-Kapazität überhaupt nicht durch „Erneuerbare“ ersetzt werden kann und höchstens ein kleiner Teil der entstehenden Lücke durch neue Braunkohlekraftwerke ausgefüllt werden könnte – falls sich überhaupt noch ein Investor dafür findet (s.u.). 

Weiterhin zerstörte dieser Beschluss die Hauptbegründung der Energiewende,  die Treibhausgase drastisch zu Gunsten eines angeblichen „ehrgeizigen Klimaschutzes“ zu reduzieren.  Wer mit mehr Kohlekraftwerken die CO2-freien Kernkraftwerke ersetzen muß, bekommt unweigerlich mehr CO2-Emissionen – das wusste selbst diese Regierung.

Damit war nach nur 8 Monaten nach seiner Verkündung dem Energiekonzept der Regierung das Hauptziel abhanden gekommen und alle anderen, die Stromversorgung betreffenden Ziele waren endgültig illusorisch geworden.

Damit endete dann auch schon die angeblich 40 Jahre in die Zukunft reichende Energieplanung.

Der Blick auf eine Trümmerlandschaft

Zwei Jahre darauf gleichen das Energiekonzept von 2010 und das „Energiepaket“ von 2011 einer Trümmerlandschaft.:

  • ♦ Die Emissionen des angeblichen Treibhausgases CO2 steigen seit der Abschaltung der 8 Kernkraftwerke unaufhaltsam. Das macht im Grunde nichts, denn die Hypothese vom CO2-angetriebenen Klimawandel zerfällt gerade, weil die reale Temperaturentwicklung im Begriff ist, selbst den Streubereich der IPCC-Horrorprognosen in Richtung Abkühlung zu verlassen.  Das politische Hauptziel „Klimaschutz“ der gesamten Energiepolitik ist damit aufgegeben worden. Darüber spricht man nicht mehr, da zu peinlich. 
  • ♦ Der Ausbau der sogenannten erneuerbaren Energien ist dank großzügigster Subventionierung stärker als geplant erfolgt, allerdings mit unerwünschten Folgen: Ein starker Anstieg des Strompreises; die ruinierte Wirtschaftlichkeit von Gas-, Steinkohle- und Pumpspeicherkraftwerken mit der Folge ihrer drohenden Stilllegung; die Gefährdung der Netzstabilität durch witterungsbedingte Schwankungen von Wind- und Solarstrom; Landschaftsverschandelung, Naturzerstörung und Lärmbelastung durch Windkraftanlagen; riesige Monokulturen durch Mais- und Rapsanbau für Biogasanlagen werden zur Konkurrenz für landwirtschaftlich genutzte Flächen; Anstieg der Pachtkosten für Agrarflächen; Anstieg der Holzpreise; Feinstaubbelastung durch Holzpellet-Heizungen; Belastungen der Stromnetze unserer Nachbarländer durch Überschuß-Strom von Windkraftanlagen; Zuzahlungen für Nachbarländer, damit sie die unerwünschten Leistungsspitzen annehmen. Und dennoch kein Ersatz der konventionellen Stromerzeugung durch Erneuerbare, weil diese auch bei größtem Ausbau niemals eine sichere Versorgung garantieren können. Damit wird die gesamte Stromerzeugung doppelt aufgebaut – die dadurch verursachten Kosten kann keine Wirtschaft verkraften: Die Abwanderung der Grundstoffindustrie ist die Konsequenz.  Womit die Regierung ebenfalls nicht rechnete, war der große Widerstand der Bürger  gegen Windkraftanlagen: Es gibt lt. SPIEGEL-Bericht über 700 Bürgerinitiativen gegen diese Technik. Hinzu kommen Bürgerinitiativen gegen den Bau von Hochspannungsleitungen und gegen den großflächigen Anbau von Energiepflanzen sowie gegen Biogasanlagen.
  • ♦ Der durch die Abschaltung der Kernkraftwerke verursachte Ausfall an Grundlaststrom wird nun teilweise durch Stromimporte ausgeglichen: Dieser Strom kommt aus französischen und tschechischen Kernkraftwerken.
  • ♦ Alle entschlossen im Energiekonzept vom September 2010 verkündeten Pläne zur Endlagerung radioaktiver Abfälle wurden schon 2013 Makulatur. Am 23.7.2013 wurde das von allen Parteien im Bundestag verabschiedete „Standortauswahlgesetz“ veröffentlicht. Das neue zeitliche Ziel ist nicht mehr 2012, sondern 2031 – aber nicht etwa für die Eröffnung des Endlagers, sondern nur für die Entscheidung, wo es denn errichtet werden könnte. Wörtlich im Gesetz: „Das Standortauswahlverfahren soll (!) bis zum Jahr 2031 abgeschlossen sein.“ Woraufhin dann der „Gorleben-Effekt“, also massiver Bürgerwiderstand, an jedem neuen, in Aussicht genommenen Standort eintritt.  Dieses Gesetz ist nichts anderes als eine Totalkapitulation vor einer unangenehmen Entscheidung: Es bedeutet, dass sämtliches hochradioaktive Material für einen unabsehbaren Zeitraum oberirdisch gelagert werden muss.  Ob das die Endlager-Gegner wollten ?
  • Die Pläne für Demonstrationsanlagen zur  CO2-Abtrennung und  unterirdischen Speicherung wurden durch den Ausstieg von Vattenfall sowie die massiven Bürgerproteste in Norddeutschland ebenfalls Makulatur.
  • ♦ Von den wenigen, energiewirtschaftlich bedeutungslosen Projekten zum Bau neuer Pumpspeicherkraftwerke scheiterte das  große Projekt am Rursee; Trianel warf das Handtuch nach sehr großem Widerstand aus der Bevölkerung.
  • ♦ Auch beim Thema Elektrofahrzeuge droht eine Blamage.  Im ersten Halbjahr des Jahres 2013 gab es nicht einmal 2.500 Neuzulassungen.
  • ♦ Der Ausbau des Höchstspannungsnetzes kommt nicht voran: Von den aktuell geplanten 1.855 km sind bislang 268 km und damit knapp 15 % realisiert.  Weitere Fertigstellungen erwarten die Netzbetreiber erst wieder 2014.  Inzwischen werden die genannten Zahlen als viel zu niedrig angezweifelt: Minister Rösler erklärte, dass  nach dem Netzentwicklungsplan 2.900 km optimiert und weitere 2.800 km neu gebaut werden müßten.
  • Und die von der Regierung zugesagte „Einbettung in die europäische Energiepolitik“  fand nicht nur nicht statt, vielmehr vollzog sie ihren extremen Schritt mit der überstürzten Abschaltung von 8 Kernkraftwerken von immerhin 8422 Megawatt Leistung ohne jede Vorwarnung oder gar Konsultation mit den Nachbarländern, die mit ihren Stromnetzen mit Deutschland verbunden sind.  Auch der extreme Ausbau der Windkraft und der Photovoltaik hat durch die dadurch verursachten starken Leistungsschwankungen erhebliche Auswirkungen auf benachbarte Länder.  Die Regierung hat diese einseitige Politik niemals mit ihren in Bezug auf die Auswirkungen auf den Strompreis und die Netzstabilität direkt betroffenen Nachbarn abgestimmt. Jetzt planen Nachbarländer – insbesondere Polen – den Bau technischer  Sperreinrichtungen gegen unerwünschte deutsche Stromexporte in ihr Netz. Abwehr anstelle von Integration ist nun die Richtung.

Energie-Planwirtschaft als Folge von Hilflosigkeit

In der Wirtschaftspresse ist bereits harsche Kritik daran geübt worden, dass im Energiesektor immer mehr marktwirtschaftliche Grundprinzipien von der Regierung missachtet und durch politisch motivierte Verletzungen dieser Prinzipien ersetzt werden.

Zahlreiche durch diese Politik hervorgerufenen Probleme zwangen die Regierung bereits zu „Reparaturmaßnahmen“, die allerdings niemals den Grundübeln zu Leibe rückten, sondern im Gegenteil stets so eingerichtet wurden, dass die gefährlich gewordenen primären Schadwirkungen durch neue kostspielige Investitionen, Subventionen und Kostenüberwälzungen auf die Verbraucher zugekleistert wurden – womit sie selbst zu neuen Schädigungen von Bürgern und Wirtschaft führen.

Die Methode ist: Fehlentscheidungen nicht rückgängig machen, sondern neue Fehler einführen, um die dahinter stehende planwirtschaftliche Ideologie zu schützen.

Folgendes geschah bereits:

1.     Das Erneuerbare Energien-Gesetz (EEG), also die Zwangssubventionierung unwirtschaftlicher und auch technisch ungeeigneter Methoden der Stromerzeugung – verbunden mit dem Zwang, den so erzeugten Strom vorrangig ins Netz einzuspeisen und seinen Weiterverkauf notfalls noch zusätzlich zu bezahlen

2.     Entschädigungs-Verpflichtung für die Nicht-Produktion eines Wirtschaftsgutes – s. §12 EEG.

3.     Die mit Angstszenarien begründete Stilllegung einer großen Grundlast-Stromerzeugung (Kernkraft) mit der Folge von Preissteigerungen,  Versorgungsengpässen und abnehmender Netzstabilität.

4.     Gewaltiger  Ausbau der Stromnetze, der ohne die Fehlentscheidung der erzwungenen Bevorzugung unrentabler Erzeugungstechniken – s. Punkt 1 – überhaupt nicht notwendig wäre.

5.     Die Übernahme der Kosten, die den Windparkbetreibern durch einen  verzögerten Anschluss  der Offshore-Windparks an das Land-Stromnetz entstehen, durch die Stromverbraucher – eine staatswirtschaftliche Maßnahme, die das vormals FDP-geführte Wirtschaftsministerium erfunden und durchgesetzt hatte.

6.     Die Entlastung von energieintensiven Produktionen von den durch das EEG verursachten Strompreiserhöhungen – und deren Überwälzung auf die übrigen Verbraucher. Hier besteht die Möglichkeit eines Eingriffs der EU wegen Wettbewerbsverletzung.

7.     Neue Subventionen, um weitere Folgen der Fehlsteuerung durch das EEG und den Kernkraftausstieg zu bekämpfen: Die Vorrangseinspeisung von Wind- und Solarstrom drückt den Börsenpreis speziell in den Mittagsstunden und macht Kohle- und Gaskraftwerke und auch Pumpspeicherkraftwerke unrentabel: Die Betreiber planen Stilllegungen.  Damit zerstört das EEG sogar die Rentabilität der einzigen Kraftwerke, die zu einer Stützung und Stabilisierung des vom stark schwankenden EEG-Strom gefährdeten Stromnetzes imstande sind. Die verzweifelte Regierung hilft sich mit: Neuen Subventionen. Das Stichwort heißt „Kapazitätsmanagement“. Im Klartext:  Zur Stilllegung vorgesehene Kraftwerke werden zur „Kaltreserve“ ernannt und deren Betreiber erhalten Geld, um die stillstehende Anlage bei Engpässen hochzufahren.  Bereits erfolgt beim bayerischen modernen Gaskraftwerk Irsching, dessen Normalbetrieb durch das EEG ruiniert wurde. Der Staat hält sich also auf eigene Kosten eine Kaltreserve.  Für die von niemand mehr geplanten Kraftwerksneubauten kommt Entsprechendes: Siehe unten.

8.     Stromspeicher werden im Ausland gesucht – so die per Seekabel teuer  anzuschließenden Pumpspeicherwerke Norwegens – weil nicht benötigter, überschüssiger Windstrom zwischengespeichert werden muss.  Die Seeekabelverbindung Nord.Link ist geplant.

9.     Durch die Energieeinsparverordnung werden Hausbesitzer zur energetischen Sanierung und Nachrüstung gezwungen. Auch wenn sie das nicht wünschen. Sie dürfen die Kosten auf die Mieter umlegen.

10. Für Neubauten ist bereits die Installierung der sog. intelligenten Stromzähler vorgeschrieben. Ein Zwang für alle Verbraucher, diese Geräte anzuschaffen, ist angesichts der die Bürger bevormundenden Energiepolitik zu erwarten.

11. In Baden-Württemberg wurden Hausbesitzer bereits gesetzlich verpflichtet, bei einer Modernisierung ihrer Heizungsanlage eine anteilige Versorgung durch „Erneuerbare Energie“ sicherzustellen.

12. Durch die wetterabhängige, bei Bewölkung rasch schwankende  Stromeinspeisung der Photovoltaikanlagen geraten die Verteilnetze in Stabilitätsprobleme. Weil ein durch zu große Einspeisung hervorgerufenes Überschreiten der Netzfrequenz von 50,2    Hertz vermieden werden muss,  wurde den Betreibern der Solarstromanlagen die Anschaffung eines Regelgerätes vorgeschrieben.  Die Kosten dafür wurden – unbemerkt – wieder den Stromverbrauchern auferlegt, obwohl sie für diese Störung des Netzes nicht verantwortlich sind. 

Die Verstaatlichung  des Energiesektors in der Zukunft

Der bereits eingeschlagene Weg in die Verstaatlichung der Stromerzeugung und -verteilung führt folgerichtig zu folgenden Schritten – und bei einer großen Koalition erst recht:

1.    Die von den EVU geplante Stilllegung von konventionellen Kraftwerken hat nicht nur den Einbruch des Börsenpreises durch hochsubventionierten und mit gesetzlichem Einspeise-Vorrang versehenen EEG-Strom als Ursache: Es geht ebenfalls um alte, unmoderne und mit schlechten Wirkungsgraden arbeitende  Anlagen, die demnächst das Ende ihrer Betriebsdauer erreichen.  Auch das fürchtet die Regierung, denn sie braucht alle existierenden Kraftwerke, weil keine neuen mehr gebaut werden – s.u.

Die staatswirtschaftliche und anti-marktwirtschaftliche Konsequenz: Bezuschussung auch dieser Altanlagen; d.h. Finanzierung umfassender Modernisierungsmaßnahmen und Subventionierung des Betriebes.

2.  Die Bevorzugung von Wind- und Solarstrom macht nicht nur die bestehenden konventionellen Kraftwerke unrentabel. Insbesondere Kraftwerksneubauten werden von der Regierung dringend gefordert, weil die durch den Kernkraftausstieg entstandene Lücke mit neuen Kohlekraftwerken ausgefüllt werden muss.  Von CO2-Emissionen spricht ohnehin niemand mehr.  Die privaten  Investoren denken jedoch angesichts dieser Energiepolitik verständlicherweise nicht mehr an  Neubaupläne. Das bekannte Heilmittel: Geld vom Staat – hier Investitionkostenszuschüsse. Das diskutiert auch schon der BDEW und auch die Bundesnetzagentur empfiehlt, über Subventionen für den Kraftwerksneubau „nachzudenken“ Deshalb hat bereits die alte Bundesregierung derartige   Investitionskostenzuschüsse für neue fossile Kraftwerke im Zeitraum 2013-2016 in Aussicht gestellt und nahm hierzu Verhandlungen mit der EU auf.  Dies wird mit Sicherheit kommen, weil auch weiterhin angesichts der sprunghaften und unberechenbaren Energiepolitik niemand derartige Investitionen tätigen wird, was sich schon heute abzeichnet. Sollte das dann auch nicht helfen, wird der Staat selbst als Kraftwerksbauer auftreten müssen – vielleicht auch gerne wollen.

3. Der staatliche Geldregen für Energiewende-Reparaturmaßnahmen lockt nun auch weitere Interessenten hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein Einspeisegesetz  á la EEG auch für Energiespeicher, die das Netz stabilisieren sollen, gefordert. Auch Investitionszuschüsse seien geeignet. Abermals heißt das vom Staat – also von den Verbrauchern –  bezahlte  „Kapazitätsbereitstellung“; hier eben für Speicher.      

4. Die schon heute erheblichen Probleme, die viele Haushalte mit ihren Stromrechnungen haben – die Verbraucherschützer sprechen von 600.000 Haushalten, denen der Strom abgestellt wurde – könnten in der Logik der Staatswirtschaft dazu führen, dass es einen Eingriff in die Tarifgestaltung der  Netzbetreiber gibt: Sozialtarife für Bedürftige, also höhere Preise für die Übrigen.                                          

5. Die bereits bei den PKW erprobte Idee der Verschrottungsprämie erlebt gegenwärtig bei den Ideenproduzenten eine Neuauflage für die „weiße Ware“, speziell alte Kühlschränke und Heizkessel.  Vorbild ist Mexiko: Dort wurde das seit 2009 praktiziert; 1,5 Millionen Haushalte ersetzten dadurch ihre Kühlschränke und  7 % weniger Stromverbrauch pro Haushalt  war das Ergebnis.

Dieser finanzielle Anreiz kann auch noch mit der Verpflichtung zur Installation von Photovoltaikanlagen oder Wärmepumpen verknüpft werden.

6. Ebenso kann es zu staatlichen Zuschüssen beim Kauf eines Elektroautos kommen, wie es die Autoindustrie, die fast nichts derartiges verkaufen kann,  vehement fordert.  Nicht einmal 2.500 Neuzulassungen gab es in Deutschland im 1. Halbjahr 2013.  Die Autofahrer sind eben nicht so dumm,  ein überteuertes Fahrzeug zu kaufen, das  auch noch ausschließlich Nachteile bringt: Geringe Reichweite,  lange Ladezeiten, fehlende Lade-Infrastruktur,  Unbrauchbarkeit im Winter, Sicherheitsbedenken bei den Li-Ionenbatterien,  Zweifel an der Batterielebensdauer.  Dazu kommt noch die Konkurrenz moderner Dieselmotoren, die kaum weniger energieeffizient, aber voll gebrauchstüchtig sind.  Die Regierung hat jedoch aus nicht nachvollziehbaren Gründen das E-Auto zum Klimaretter ernannt und es ist zu befürchten, dass neue staatliche Maßnahmen erfunden werden, um diese noch ca. 20 Jahre von ihrer  Brauchbarkeit entfernte Technik jetzt in den Markt zu bringen, koste es was es wolle. 

7. Es ist davon auszugehen, dass die sog. Smart Meter,  also „intelligente Stromzähler“ ,  durch staatliche Zwangsmaßnahmen in den Haushalten auch von Altbauten eingebaut werden müssen.  Versuche haben zwar gezeigt, dass die damit verbundenen Kosten deutlich über den sehr geringen Einsparungen im Stromverbruch liegen, doch das dürfte nach allen Erfahrungen die Ministerialbürokratie nicht daran hindern.  Es geht schließlich nicht nur um Stromeinsparungen, sondern vielmehr um die Kontrolle der Energieverbraucher sowie um deren Erziehung zum Energiesparen. Es sind deshalb Proteste zu erwarten, weil mit diesen Zählern das Verbrauchsverhalten der Bürger überwacht werden kann – mit Ermahnungen des Versorgers bei kritikwürdigem, nicht klimagerechten Verhalten.  Der Schnüffelstaat läßt grüßen.

8. Kurz vor der Bundestagswahl hat das bis dahin FDP-geführte Wirtschaftsministerium 1000 Energieberatungs-Gutscheine á 250 Euro an Haus- und Wohnungsbesitzer verteilt.  Ziel sei „ein weitgehender klimaneutraler Gebäudebestand bis 2050“.  Dieser dreifache Unfug – die Unnötigkeit der Aktion, weil das Klimaargument passé ist,  die größenwahnsinnige Perspektive 2050 und die faktische Unbezahlbarkeit trotz Gutschein – erklärt zumindest zu einem kleinen Teil den Totalabsturz der FDP. Aber die Idee zur Energieberatung der Haushalte hatte zuvor schon Minister  Altmaier und es ist anzunehmen, dass die staatlich geförderte Ermunterung der Bürger zum Energiesparen noch weiter getrieben wird.  Bezeichnend ist dabei, dass es mit dem Strom-Schlaraffenland der Erneuerbaren nicht so weit her sein kann, wenn geradezu verzweifelt das Stromsparen propagiert wird.  Ob die Ergebnisse dieser Beratungen von staatlichen Stellen ausgewertet werden, um uneinsichtigen Bürgern „erneuerbare“ Energien nahe zu bringen, ist offen, aber keineswegs ausgeschlossen.

9. Weil mit zunehmendem Anteil von extremen Spitzen und ebenso abrupt eintretenden Versorgungslücken des Windstroms gerechnet werden muss, steigt auch die Gefahr von Netzzusammenbrüchen – neudeutsch Blackouts.  Weil es  nicht annähernd ausreichende Stromspeicher zum Ausgleich  dieser Schwankungen gibt – und auch für die kommenden 20 Jahre nicht geben wird – werden staatliche Stellen verstärkt Großverbraucher zwingen,  zeitweise Stromabschaltungen hinzunehmen.  Diese Unternehmen sehen sich dadurch gezwungen, eigene größere Notstromgeneratoren zu installieren, was ihre Kosten in die Höhe treibt.

10. Weil die Lebensdauer auch von Photovoltaikanlagen und Windkraftanlagen begrenzt ist, stellt sich irgendwann die Frage der Verschrottung.  Nach dem bislang eisern durchgehaltenen Prinzip der Energiewende, alle Kosten auf die Verbraucher abzuwälzen, ist zu befürchten, dass  das auch bei diesen Kosten nicht anders sein wird.

11. Die Schnüffelei, die bei den intelligenten Zählern und der Energieberatung möglich ist,  kann auch noch auf einer anderen, buchstäblich höheren Ebene erfolgen: Der Umweltreferent der Stadt Bonn, der über die geringe Anzahl von Photovoltaikanlagen auf den Dächern, die er aus seinem Büro sah, sehr traurig war, verbreitete sich über die Idee, aus Luftbildaufnahmen alle für eine Solarzellen-Installation geeigneten Dächer der Stadt zu bestimmen – um dann den betreffenden Hausbesitzern die Anschaffung einer Solarstromanlage ans Herz legen zu können. Hier können sich staatliche Stellen noch Meriten erwerben; vielleicht hilft auch die Luftwaffe.

13. Die Mischung aus Hilflosigkeit und Verzweiflung produziert bereits Vorschläge, die die Älteren an die letzten Jahre des Krieges erinnern. Damals wurde zum Beispiel in der Wochenschau im Kino regelmäßig der Kohlenklau vorgeführt , den man durch das Schließen der Fenster am Energiediebstahl hindern sollte.  Jetzt ist das Energiesparen wieder nationale Pflicht geworden.  Mit Plakaten wurde im Krieg auf die Wichtigkeit der Verdunkelung hingewiesen – damals gegen die Bomber, heute vielleicht wieder aktuell gegen den auch nicht angenehmen totalen Blackout im Winter.  Minister Altmaier gab bereits Tips zum Energiesparen im Haushalt: So sollte man möglichst den Deckel auf dem Kochtopf lassen.  Wenn es so weiter geht, werden auch noch unsere Kabarettisten arbeitslos.

Eine sehr ernste Warnung

Auf dem Debattenabend „Energiewende: Plan- vs. Marktwirtschaft“ der Stiftung Energie & Klimaschutz am 5.6.2013 in Stuttgart hat der Leiter des renommierten Instituts für Energiewirtschaft und Rationelle Energieanwendung (IER) der Universität Stuttgart, Prof. Dr. Alfred Voß, die Gefahr eines weiteren Ausbaus der sog. Erneuerbaren mit sehr deutlichen Worten beschrieben.

Zitat: „Die Technologieziele der Energiewende sind mit einem marktwirtschaftlichen Ordnungsrahmen nicht zu erreichen“. Trotz großer Fortschritte der erneuerbaren Energien glaube er nicht, dass diese auf einem freien Markt mit der konventionellen Stromerzeugung konkurrieren können.  Deshalb werde die Energiewende „nur mit einem planwirtschaftlichen Ordnungsrahmen und mit erheblich höheren Kosten umzusetzen sein“.  Voß weiter: „Alles was wir machen, wenn wir den Ausbau der Erneuerbaren so fortführen, wird dazu beitragen, dass wir ein Energieversorgungssystem haben, das ein zentrales Kriterium nicht erfüllt, nämlich einen wettbewerbsfähigen Strompreis für die Bürger und die Industrie.“

Zur Erinnerung: Im September 2010 beschloss die Regierung das „Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare (!) Energieversorgung“.  Wird dieses Konzept weiter verfolgt, werden alle diese Hauptziele völlig verfehlt und dieses Experiment wird in einer teuren Planwirtschaft enden.

Prognosen sind schwierig……,

insbesondere, wenn sie die Zukunft betreffen. Dieser von Mark Twain stammende Satz gilt weiterhin und ganz besonders für die deutsche Energiepolitik.  Dennoch sei hier eine Voraussage gewagt.  Genau so, wie neuerdings in Wetterberichten regelmäßig die ziemlich seltsame  Aussage über die Regenwahrscheinlichkeit zu hören ist (als ob man dann mit 60-prozentiger Wahrscheinlichkeit seinen Schirm mitnimmt), kann man auch in diesem Politikfeld, gegen das unser Wetter – obwohl ein chaotisches System – zumindest für zwei Tage und damit besser als die gleichfalls chaotische Politik recht gut prognostizierbar ist,  nur noch mit Wahrscheinlichkeiten rechnen.

Und die oben angestellten Betrachtungen ergeben mit einer höheren Wahrscheinlichkeit als alle anderen Möglichkeiten für den Energiesektor das Ergebnis Plan- und Staatswirtschaft. Sollte es anders kommen, wäre es ein guter Grund zur vorübergehenden Erleichterung.

Dr.-Ing. Günter Keil,  Sankt Augustin

Den Beitrag können Sie unten als pdf herunterladen

Related Files




Strahlungswirkung: Eine falsche Theorie bestimmt die Atom-Politik

Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das "nicht vertreten sein" von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei "We the people, your voice in our government" (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem "Randthema" eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte "Gesunde Menschenverstand" plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das LNT – Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel — im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, dass man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut — ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: "Auf der Baustelle besteht Helmpflicht". Ganz egal, an welcher Stelle der Baustelle man sich befindet.
Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hundert Meter durch einfache Addition  berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar — jedenfalls spätestens nach dem ersten "Muskelkater". Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, dass sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.
Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, dass, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. "tausende Tote" durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, dass es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, dass energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.
Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war — und ist heute eigentlich noch immer — der Meinung, dass bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen "Qualitätsmedien" zur "Reaktorkatastrophe in Fukushima".
Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, dass unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.
Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar, wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil, ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das "Klein gedruckte" des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:
 "…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose…
Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities".
Soll wohl heißen, wir wissen selbst, dass das Blödsinn ist, was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, dass es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte "Atomkraftgegner" wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger "Atomexperten" mögen öffentlich an ihre Prophezeiungen über "Millionen von zusätzliche Krebstoten in ganz Europa" infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.
Nicht nur "Atomkraftgegner", sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine "Chemiefabrik" in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden —  in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Kerbs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.
Zusammenfassend kann man sagen, dass die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem, bricht auch in den USA eine erneute Diskussion zur "Atommüllfrage" los. Interessant ist hierbei, dass die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr (0,15 mSv/a) (für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem pro Jahr (1 mSv/a) gefordert.
Eine jährliche Strahlenbelastung von 0,15 mSv (15 mrem) entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht, in die durch unsere Sinne unmittelbar erfahrene Alltagswelt, übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der "Schutzzone" evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die "Wohnumstände". Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.
Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I-131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs-137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von "freigemessenen" Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in "Greenpeace-Sprech" gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.
Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, dass dadurch etwa 100 "virtuelle Leben" gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach "billiger" Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.
Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, dass es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu "As High As Reasonably Safe (AHARS)" (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute "soziale Schäden" bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, dass der oberste Wunsch bei den "Vertriebenen", die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, dass der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser ist, als der, der zwangsweise Umgesiedelten. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem "verseuchten" Grund betreiben.
Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Karriereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen "Ausstieg aus der Kernenergie" verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.
Dr. Klaus-Dieter Humpich
Dieser Artikel ist zuerst im Blog „www.nukeklaus.de“ erschienen.




Gesundheitliche Wirkung radioaktiver Strahlung – Teil 1:

Vor über 100 Jahren wurde die radioaktive Strahlung einzelner Elemente erstmalig experimentell nachgewiesen. Tatsächlich leben Menschen aufgrund der Beschaffenheit der Erdkruste und der durch kosmische Quellen verursachten Höhenstrahlung immer schon in einem radioaktiv strahlenden Umfeld, dessen Stärke im Wesentlichen von der geographischen Lage abhängt. Wegen der (glücklicherweise) sehr geringen Wirkung natürlich auftretender Dosen können statistische Aussagen nur dann getroffen werden, wenn eine genügend große Zahl exponierter Personen und eine nichtexponierte Vergleichsgruppe vorliegen.
Mit Sicherheit lässt sich sagen, dass eine über einen kurzen Zeitraum (wenige Minuten) aufgenommene extrem hohe Dosis (mehrere Sievert) äußerlich zu verbrennungsartigen Erscheinungen, begleitet von Nekrose und Organversagen führt. Bei einer deterministischen Wirkung wie in diesem Fall ist der Zusammenhang zwischen Ursache und Wirkung offensichtlich, ähnlich einem Autounfall. Schwieriger ist die Beurteilung statistischer Langzeitrisiken, also der Frage, wie stark sich das Risiko gesundheitlicher Beeinträchtigungen (z.B. Tumorbildung) über die gesamte Lebensspanne erhöht, wenn eine Person einer bestimmten Strahlendosis ausgesetzt wurde.

Blitzdosis und Langzeitdosis

Dosis ist nicht gleich Dosis. Obwohl in der Summe identisch, hat eine hohe Einzeldosis eine ganz andere Wirkung als die gleiche Dosis verteilt über einen langen Zeitraum. Zur Unterscheidung werden wir den ersten Fall als Blitzdosisbezeichnen, den zweiten dagegen als Langzeitdosis. Beide Arten der Dosis haben wiederum die oben genannten statistischen Langzeitwirkungen. Deterministische Kurzzeitwirkungen kann es naturgemäß nur bei einer Blitzdosis geben.
Der Unterschied zwischen Blitzdosis und Langzeitdosis ist vergleichbar mit der Aufnahme von Wärmeenergie: Wenige Minuten in loderndem Feuer führen unweigerlich zum Tod. Dagegen wird die gleiche Energie, verteilt über einen längeren Zeitraum, als angenehme Wärme empfunden. Allgemein gilt für jede Art Energiefreisetzung: Eine explosionsartige Freisetzung führt immer zu Zerstörung, eine langsame Freisetzung derselben Energiemenge dagegen kann einen erwünschten Nutzen erfüllen.
Als Zeitmaß einer Blitzdosis nehmen wir die biologische Reaktionszeit des Körpers an. Nach neueren Erkenntnissen gibt es mehrere Reparaturmechanismen, die die biologisch negative Wirkung sogar überkompensieren können. Diese arbeiten auf unterschiedlichen Zeitskalen, so dass die Grenze zwischen Blitzdosis und Langzeitdosis bei einigen Stunden bis einigen Wochen liegen kann.
Bei der Ermittlung gesundheitlicher Auswirkungen radioaktiver Emissionen z.B. auf die Bevölkerung im Umkreis des verunfallten Kernkraftwerks Tschernobyl aber auch auf Nukleararbeiter als Grundlage für den Strahlenschutz geht es im Allgemeinen um die Langzeitfolgen einer Langzeitdosis. Grundlage dieser Schätzungen sind dagegen die Überlebenden der Atombombenabwürfe über Hiroshima und Nagasaki, also die Studie der Langzeitfolgen einer Blitzdosis. Dieser offensichtliche Widerspruch wird im Strahlenschutz hingenommen, vor allem weil in der "Gründerzeit" des Strahlenschutzes die Hiroshima- und Nagasakiüberlebenden mit 90 000 Personen die einzige größere exponierte Gruppe bildeten, bei der Langzeitwirkungen beobachtet werden konnten.
Inzwischen existieren aber zahlreiche Studien von großen Personengruppen, die einer erhöhten Langzeitdosis ausgesetzt waren. Das prominenteste Beispiel ist die Kontamination mehrerer Wohngebäude mit radioaktivem Kobalt in Taipei, Taiwan, im Jahre 1983, mit 10.000 betroffenen Personen. Studien dazu sind erst wenige Jahre alt, so dass die neuen Erkenntnisse noch nicht den Weg durch die internationalen Strahlenschutzinstanzen gefunden haben.
Obwohl aus den o.g. Gründen als Vorlage für den allgemeinen Strahlenschutz nur sehr beschränkt geeignet, bilden die Hiroshima- und Nagasakibeobachtungen immer noch die Grundlage gesundheitlicher Risikoabschätzungen. Nicht nur die Tatsache, dass die Wirkung einer Blitzdosis sich von der einer Langzeitdosis dramatisch unterscheidet, sondern auch das abgeleitete Risikomodell der Blitzdosis selbst ist kritisch zu betrachten, wie in den folgenden Abschnitten gezeigt wird.

Die Hiroshima- und Nagasakiüberlebenden

Seit den Abwürfen der Atombomben über Hiroshima und Nagasaki am 6. und 9. August 1945, bei denen unmittelbar rund 200.000 Menschen vorwiegend durch die Folgen der Hitze- und Druckwelle starben, wurden statistische Daten der Überlebenden gesammelt mit dem Ziel, einen biologischen Dosis-Wirkung-Zusammenhang für die Spätfolgen radioaktiver Bestrahlung zu etablieren.
Bis zu jenem Zeitpunkt kannte man nur die deterministischen Schäden, also die Sofortwirkung radioaktiver Strahlung, während es über statistische Langzeitschäden nur Vermutungen gab. Rund 90.000 Überlebende der Atombombenangriffe auf Hiroshima und Nagasaki wurden einer lebenslangen Beobachtung (Life Span Study) unterzogen. Mit Berechnungen und Simulationen, die auch heute noch verfeinert werden, wird die in Sekundenbruchteilen empfangene individuelle radioaktive Dosis abgeschätzt. Die Erhebungen werden von der Radiation Effects Research Foundation (RERF)durchgeführt, finanziert vom  japanischen Gesundheitsministerium (MHLW) und dem US-amerikanischen Energieministerium (DoE). Beginnend im Oktober 1950 fand die letzte Aktualisierung mit dem Ende des Jahres 2000 statt. Zu diesem Zeitpunkt waren 55% der untersuchten Überlebenden verstorben. (Es gibt eine weitere Aktualisierung, die bis Ende 2003 reicht, seitdem wurden aber keine neuen Daten veröffentlicht.)
In der vom RERF erstellten Datenbank werden die Personen in Gruppen nach Alter, Geschlecht und geschätzter Strahlendosis eingeteilt. Alle 5 Jahre wird erfasst, wie viele Personen einer Gruppe noch leben. Aus diesen Daten ist ein Zusammenhang zwischen Dosis und Sterberate klar zu erkennen, man muss sich aber dennoch klar machen, wie hoch die Dosis sein muss, um tatsächlich gefährliche Auswirkungen zu haben. Um dies deutlich zu machen, präsentieren wir hier eine vereinfachte Analyse.
Zur besseren Veranschaulichung haben wir hier nur die Mitglieder der Altersgruppe berücksichtigt, die zum Zeitpunkt der Detonation vor 66 Jahren zwischen 30-45 Jahre alt waren und demnach heute fast alle verstorben sind. Im Jahr 1951 lebten 100% der Personen, weil hier die Erhebungen beginnen. In den Jahren davor, zwischen 1945 und 1951 sind natürlich auch Personen gestorben, die von der Statistik nicht erfasst werden. Diese vermutlich den Nachkriegswirren geschuldete Lücke ist für eine ca. 80 Jahre dauernde Langzeitstudie aber vertretbar. In der Grafik wird zwischen zwei Dosisgruppen unterschieden. Diejenigen, die einer Dosis unter 1,5 Sievert ausgesetzt waren (im Durchschnitt 0,1 Sievert) sind grün gekennzeichnet; die rötlich gefärbten Daten beziehen sich auf eine mit über 1,5 Sievert stark exponierte Gruppe (Durchschnitt 2,0 Sievert).

Hiroshima- und Nagasaki-Überlebende, die zum Zeitpunkt der Bombenabwürfe 30 bis 45 Jahre alt waren. Die Gruppe mit starker Strahlendosis lebt 18% kürzer. (Quelle: IFK)
Man sieht, wie die Anzahl der Personen über die Jahre abnimmt, was zunächst der normalen Sterberate entspricht. Es gibt aber auch einen erkennbaren Unterschied zwischen beiden Gruppen: Personen aus der grünen Gruppe lebten nach dem Jahr 1950 durchschnittlich noch weitere 34,5 Jahre, die Mitglieder der roten, stärker exponierten Gruppe hingegen durchschnittlich nur 28,4 Jahre, also 18% weniger. Das Fazit dieser einfachen Analyse wäre also: Eine Strahlendosis von 2 Sievert verringert die Lebenserwartung um 18%.
Die Einteilung in nur zwei Gruppen ist für die Herleitung eines Risikomodells natürlich zu ungenau. Sie eignet sich aber für eine anschauliche Darstellung der Wirkung um eine Vorstellung der Größe zu entwickeln. 1-2 Sievert ist eine Blitzdosis, die – neben den Bombenopfern – in der Geschichte nur einige wenige Personen in nuklearen Einrichtungen als Folge von Unfällen ertragen mussten. In der Bevölkerung sind derartige Dosen sonst nie auch nur näherungsweise aufgetreten. Anders verhält es sich bei der Langzeitdosis; hier kann allein die natürliche Radioaktivität in Deutschland eine Lebensdosis von 1-2 Sievert verursachen.

Das lineare Modell ohne Schwellenwert (LNT-Modell)

Wie verhält es sich nun mit Dosen kleiner als 2 Sievert? Ist die Annahme, dass 1 Sievert die Lebenserwartung um 9% verringert oder 0,1 Sievert um 0,9%, zulässig? Sie entspräche dem linearen Modell ohne Schwellenwert (Linear No-Threshold = LNT). Mithilfe des LNT-Modells lässt sich das Risiko leicht abschätzen. Es bleibt jedoch zu überprüfen, ob eine derartige Abschätzung mit den Beobachtungen übereinstimmt.
Um das LNT-Modell zu überprüfen, verfeinern wir die obige Dosiseinteilung. Das folgende Diagramm zeigt die verringerte Restlebenserwartung relativ zu der der nichtexponierten Gruppe (Dosis 0 Sievert) in Abhängigkeit von der Dosis.

Erhöhtes Todesrisiko der Hiroshima/Nagasaki-Überlebenden in Abhängigkeit von der Strahlendosis. Zwischen 0 und 0,3 Sievert ist die Skala gestreckt. Die vertikalen Balken sind Unsicherheiten. Bis 1,5 Sievert ist keine Risikoerhöhung innerhalb der Unsicherheiten erkennbar. Anmerkung für Statistiker: Die Unsicherheiten beruhen auf der Annahme einer Poisson-Verteilung. Die Schwankungen sind aber offensichtlich kleiner als die Unsicherheiten. (Quelle: IFK)
Da die Anzahl der untersuchten Personen mit zunehmender Dosis immer kleiner wird, vergrößert sich die statistische Ungenauigkeit. Dies wird in dem Diagramm durch die vertikalen Fehlerbalken dargestellt. Grün unterlegt sind wieder jene Gruppen, deren Mitglieder einer Strahlung von maximal 1,5 Sv ausgesetzt waren, im Schnitt 0,1 Sv. Im rötlichen Bereich liegen die Gruppen zwischen 1,5 und 3,0 Sv, im Schnitt 2 Sv. Die Darstellung unterhalb 0,3 Sievert ist horizontal gestreckt worden, um einzelnen Punkte noch unterscheiden zu können.
Das Diagramm zeigt, dass das Risiko bei einer Blitzdosis von bis zu 0,3 Sievert um Null schwankt, also nicht erhöht ist. Zwischen 0,3 und 1 Sievert scheint es leicht anzusteigen und oberhalb 1 Sievert zunächst wieder abzufallen. Diese Änderungen spielen sich aber innerhalb der Unsicherheiten ab, sind also nicht signifikant. Erst ab 1,5 Sievert wird ein sprunghafter Anstieg der Daten deutlich sichtbar. Wie im vorherigen Abschnitt bereits festgestellt liegt die Risikoerhöhung um 2 Sievert bei 18%.
Das folgende Diagramm zeigt die gleichen Daten noch einmal auf einer durchgehenden Dosisskala ohne die Streckung unterhalb 0,3 Sievert. In magenta und grün sind mögliche Modellkurven (grüne Kurve flacher) dargestellt.

Das erhöhte Sterberisiko der Hiroshima- und Nagasaki-Überlebenden, die zum Zeitpunkt der Bombenabwürfe 30-45 Jahre alt waren, dargestellt in Abhängigkeit von der Strahlendosis. Zusätzlich sind 2 Modellfunktionen eingezeichnet. Die LNT-Modellfunktion beschreibt die Beobachtungen nur unzureichend. (Quelle: IFK)
Würde man das LNT-Modell (magenta) nutzen, ergäbe sich eine lineare Risikozunahme von 7% pro Sievert. Die LNT-Gerade läuft aber nur schlecht durch die tatsächlichen Datenpunkte. Sie liegt bei kleinen Dosen über den Daten, bei hohen Dosen jedoch unterhalb der tatsächlichen Beobachtungen. Mit anderen Worten: Das LNT-Modell überschätzt das Risiko geringer Strahlendosen auf Kosten einer Unterschätzung bei hohen Dosen. Wichtiger ist aber die Feststellung, dass unterhalb einer Schwelle gar keine Risikozunahme zu beobachten ist. Dies schließt nicht aus, dass es ein Risiko gibt, nur ist dieses so klein, dass selbst unter Zehntausenden von bestrahlten Personen keine Auffälligkeiten sichtbar sind.

Das LNT-Modell in den wissenschaftlichen und politischen Instanzen

Trotz der erwähnten offensichtlichen Unzulänglichkeiten wurde in den ersten Jahrzehnten nach den Bombenabwürfen das LNT-Modell zur Grundlage für den Strahlenschutz, um wenigstens einen theoretischen Ansatz für den Umgang mit geringer radioaktiver Strahlung zu haben. Dabei war den Strahlenschutzexperten implizit bewusst, dass für Dosen unterhalb einiger hundert Millisievert keine gesundheitlichen Auswirkungen bekannt sind.
Es sei noch einmal ausdrücklich darauf hingewiesen, dass das LNT-Modell doppelt unzulänglich ist:

  • Das LNT-Modell basiert nur auf den Beobachtungen einer Blitzdosis, die sich nicht auf Langzeitdosen übertragen lassen.
  • Selbst die Beobachtungen der Blitzdosis deuten klar auf einen Schwellenwert hin, im Widerspruch zum LNT-Modell.

Das 1955 gegründete "United Nations Scientific Committee on the Effects of Atomic Radiation", UNSCEAR, gab 1958 einen ersten Bericht heraus, in dem verschiedene Modelle zur Abschätzung der Gesundheitsrisiken durch radioaktive Strahlung vorgestellt wurden. Die Diskussion ist auch im Zusammenhang mit den gesundheitlichen Auswirkungen der damaligen Kernwaffentests zu sehen. So kommt UNSCEAR zu dem Schluss, dass weltweit 60.000 Leukämiefälle oder kein einziger als eine Folge der nuklearen Waffentests gewertet werden müssen, je nachdem ob die Daten mit einem Modell ohne Schwelle oder mit einer Schwelle von 60 Millisievert pro Jahr (über eine Lebensspanne von 70 Jahren) ausgewertet wurden. Auch in den neueren UNSCEAR-Reports werden Schwellenwerte im Hundert-Millisievert-Bereich diskutiert, neuerdings auch auf mikrobiologischer Basis.
Bezugnehmend auf die von UNSCEAR diskutierten Probleme mit einem Modell ohne Schwellenwert gibt die Internationale Strahlenschutzkommission ICRP in ihren Empfehlungen (zuletzt Report 103) ein erhöhtes Krebserkrankungsrisiko von 4% pro Sievert vor. Dieses Risiko, so ICRP, skaliere unterhalb 100 Millisievert linear mit der Dosis. wobei ein Gewichtungsfaktor ausdrücklich zugelassen wird (Report 103, Abs. 65). Schon im folgenden Absatz 66 wird darauf hingewiesen, dass das LNT nur als praktische Anleitung für den Strahlenschutz, nicht aber zur Schätzung des Gesundheitszustands einer großen Bevölkerung mit geringer Langzeitdosis anzuwenden sei. Diese umständlichen Formulierungen rühren von der nicht sauberen Unterscheidung zwischen Blitzdosis und Langzeitdosis her.

Zusammenfassung

Die hier gezeigte Dosis-Wirkungsbeziehung für eine exemplarische Auswahl der Hiroshima- und Nagasakiüberlebenden lässt einen Schwellenwert bei mindestens einigen hundert Millisievert vermuten. Überdies lässt sich das Modell einer Blitzdosis nicht auf eine Langzeitdosis übertragen.
Dennoch empfiehlt die Internationale Strahlenschutzkommission ICRP basierend auf den Hiroshima- und Nagasakidaten für den Strahlenschutz ein lineares Modell ohne Schwelle, schließt die Anwendung auf eine größere Bevölkerung aber gleichzeitig aus. Diese letzte Aussage wird oft übersehen; der oft zitierte Satz "Jede Strahlendosis ist gefährlich" hat seinen Ursprung diesem falschen Verständnis des LNT-Modells.
Die Blitzdosis-Gruppe der 90.000 Hiroshima- und Nagasakiüberlebenden war lange Zeit die einzige Quelle zur Erfassung statistischer Langzeitwirkungen. Inzwischen gibt es aber statistisch gut gesicherte Untersuchungen, bei denen eine große Gruppe einer überhöhten Langzeitdosis ausgesetzt war. Diese Studien sind noch nicht oder nur zu einem geringen Teil in die ICRP- und UNSCEAR-Berichte eingeflossen.
von Götz Ruprecht, Institut für Festkörper-Kernphysik Berlin Den Originalartikel gibt es hier.

Quellen




Große Momente gescheiterter Prognosen

Bild rechts: Cover via Amazon

Erschöpfung der Ressourcen

„Tatsächlich ist es sicher und klar zu erkennen, dass die Erde derzeit kultivierter und entwickelter ist als früher. Alle Orte sind jetzt erreichbar, alles ist dokumentiert, überall gibt es Geschäftsleben. Die blühendsten Bauernhöfe beseitigen leere Flächen, man pflügte Felder und bezwang den Wald, Viehherden vertreiben Wildtiere, sandige Stellen werden beackert, Steine werden befestigt, Sümpfe trocken gelegt, und es gibt auch viele große Städte dort, wo vorher kaum eine Hütte gestanden hatte… überall gibt es Unterkünfte, überall eine Regierung, überall Leben. Der stärkste Beweis der großen Anzahl von Menschen: Wir sind eine Belastung für die Welt, die Ressourcen reichen kaum für uns alle, und unsere Erfordernisse schränken uns ein, Klagen gibt es überall, weil die Natur uns schon jetzt nicht unterstützt“.
● Im Jahr 1865 hat Stanley Joves (einer der anerkanntesten Ökonomen im 19. Jahrhundert) vorausgesagt, dass in England zum Jahr 1900 die Kohle aus gehen würde, und dass Englands Fabriken dadurch still stehen würden.
● Im Jahr 1885 hat der US Geological Survey bekannt gegeben, dass es „nur geringe oder gar keine Chance“ gebe, dass in Kalifornien Öl entdeckt wird.
● Im Jahr 1891 machten sie die gleiche Vorhersage für Kansas und Texas (siehe Osterfeld, David. Prosperity Versus Planning : How Government Stifles Economic Growth. New York : Oxford University Press, 1992.)
● Im Jahr 1939 hat das US-Innenministerium [Department of the Interior] gesagt, dass die Ölvorräte in Amerika höchstens nur noch 13 Jahre reichen würden.
● 1944 gab es eine Vorhersage in einem Bericht der [US-]Bundesregierung, der zufolge die USA 21 seiner 41 heimischen Rohstoffe ausgebeutet haben würde, darunter Zinn, Nickel, Zink, Blei und Magnesium.
● Im Jahr 1949 sagte der [US-]Innenminister, dass das Ende von in den USA vorhandenem Öl abzusehen sei.
Behauptung: Im Jahr 1952 kam die Materials Policy Commission des US-Präsidenten zu dem Ergebnis, dass bis Mitte der siebziger Jahre die Kupferproduktion in den USA nicht über 800000 Tonnen steigen könne und das die Bleiproduktion höchstens 300000 Tonnen pro Jahr betragen werde.
Daten: Aber im Jahr 1952 wurden 1,6 Millionen Tonnen Kupfer hergestellt, und bis 1974 erreichte die Herstellung von Blei 614000 Tonnen – 100% mehr als vorhergesagt.
Behauptungen: Im Jahr 1968 schrieb Paul R. Ehrlich The Population Bomb und erklärte, dass der Kampf, die Menschheit zu ernähren, verloren worden ist und dass es eine erhebliche Verknappung der Nahrungsmittel in den USA geben würde. „In den siebziger Jahren … werden hunderte Millionen den Hungertod sterben“, und in den achtziger Jahren wären die meisten der wichtigen Ressourcen der Welt ausgebeutet. Er sagte voraus, dass 65 Millionen Amerikaner zwischen 1980 und 1989 wegen Hungers sterben würden und dass die US-Bevölkerung bis zum Jahr 1999 auf 22,6 Millionen zurückgehen werde. Die Probleme in den USA wären dabei noch relativ gering, verglichen mit der übrigen Welt. (Ehrlich, Paul R. The Population Bomb. New York, Ballantine Books, 1968.) Das Magazin New Scientist hat diese Rede in einem Editorial mit dem Titel „In Praise of Prophets“ noch unterstrichen.
Behauptung: Bis zum Jahr 2000 werden die Britischen Inseln lediglich noch aus einer kleinen Gruppe verarmter Inseln bestehen, bewohnt von etwa 70 Millionen hungernden Menschen… Wenn ich ein Spieler wäre, würde ich sogar Geld darauf wetten, dass England im Jahr 2000 gar nicht mehr existieren wird“. Paul Ehrlich, Speech at British Institute For Biology, September 1971.
Behauptung: 1968 hat Ehrlich geschrieben: „Ich bin noch auf der Suche nach jemandem, der sich mit der Lage auskennt, der glaubt, dass Indien sich bis 1971 selbst versorgen könne, falls jemals überhaupt“.
Daten: Und doch hat Indien innerhalb weniger Jahre Nahrungsmittel exportiert und seine Kapazität zur Erzeugung von Nahrungsmitteln erheblich verändert. Das muss Ehrlich bemerkt haben, denn in der Version seines Buches aus dem Jahr 1971 ist dieser Kommentar entfernt worden (Julian Simon, The Ultimate Resource, Princeton: Princeton Univesity Press, 1981, p. 64).
The Limits to Growth [Die Grenzen des Wachstums] 1972 projizierte, dass die Goldvorräte der Erde bis zum Jahr 1981 aufgebraucht sein würden, Quecksilber und Silber bis 1985, Zinn bis 1987, Zink bis 1990, Petroleum bis 1992 und Kupfer, Blei und Erdgas bis 1993. Es wurde darin auch festgestellt, dass es nur noch für 33 bis 49 Jahre Aluminium-Vorräte geben würde, was bedeutet, dass es irgendwann zwischen 2005 und 2021 alle wäre (siehe Donella Meadows et al., The Limits to Growth: A Report for the Club of Rome’s Project on the Predicament of Mankind. New York: New American Library, 1972).
Behauptung: Im Jahr 1974 verkündete der US Geological Service, dass sich die USA „mit der Technologie und den Preisen von 1974“ nur noch 10 Jahre lang versorgen könnten.
Daten: Die American Gas Association sagt, dass es noch für die nächsten 1000 bis 2500 Jahre Gasvorräte geben werde (Julian Simon, Population Matters. New Jersey: Transaction Publications, 1990): p. 90.

Bevölkerung und Armut

Mitte der siebziger Jahre hat die US-Regierung eine Reisemesse für Schulkinder gesponsert, Titel: „Population: The Problem is Us.” [etwa: „Bevölkerung: das Problem sind wir“] (Jacqueline Kasun, The War Against Population, San Francisco: CA, Ignatius, 1988, p. 21.)
Im Jahr 1973 wurde das Urteil des Richters am obersten Gerichtshof der USA Potter Stewart im Fall Roe v. Wade von diesem Gedanken beeinflusst, jedenfalls Bob Woodward und Scott Armstrong zufolge: „Als Stewart das gesehen hat, wurde Abtreibung zu einer vernünftigen Lösung der Bevölkerungskontrolle“ (zitiert in Newsweek am 14. September 1987, S. 33).
Im Jahr 1989 während Gerichtsverhandlung über den Fall Webster am obersten US-Gerichtshof goss die Richterin Sandra Day O’Connor den Gedanken der Überbevölkerung in eine Frage, die sie Charles Fried, dem ehemaligen General-Staatsanwalt stellte: „Glauben Sie, dass der Staat das Recht hat, falls wir in einem kommenden Jahrhundert ein ernstes Überbevölkerungs-Problem haben, dass der Staat das Recht hat, von Frauen Abtreibungen zu verlangen, nachdem sie so viele Kinder geboren hatten?“
Weltbank-Präsident Barber Conable verlangt nach einer Bevölkerungskontrolle, weil „Armut und rasches Bevölkerungswachstum einander befeuern“ (Washington Post, July 16, 1990, p. A13).
Prinz Philipp gibt uns den Rat, dass „es offensichtlich sein muss, dass weiteres Bevölkerungswachstum egal in welchem Land unerwünscht ist“ (Washington Post, May 8, 1990, p. A26)
37 Senatoren versicherten Präsident Bush in einem Schreiben ihre Unterstützung für Bevölkerungskontrolle (Washington Post, April 1, 1990, p. H1)
Die Trilateral Commission [?] und die American Assembly verlangen eine Reduktion des Bevölkerungswachstums (U. S. News and World Report, May 7, 1990)
Die Cover-Story von Newsweek zum Jahresende kommt zu der Schlussfolgerung, dass „an erster Stelle der neuen Realitäten das Bevölkerungsproblem der Welt steht“ (25. Dezember 1990, p.44)
Die Präsidentin der NOW [NOW = National Organisation of Women] warnt, dass ein fortgesetztes Bevölkerungswachstum eine „Katastrophe“ wäre (Nat Henthoff in der Washington Post, 29. Juli 1989, p. A17)
Ted Turner (Atlanta Journal Constitution, Mittwoch, 2. Dezember 1998) machte in einer Rede vor der Society of Environmental Journalists [etwa: Gesellschaft von Umweltjournalisten] in Chattanooga die Christenheit für die Überbevölkerung und die Umweltzerstörung verantwortlich und fügte hinzu, dass Leute, die anderer Ansicht sind als er, „Dummies“ sind. Zitat aus seiner Rede: „Die jüdisch-christliche Religion sagt, dass dem Menschen die Herrschaft über alles gegeben sei, und für die Erlösung soll er hinausgehen und sich vermehren. Nun, das haben wir getan… bis zu einem Punkt wie Kalkutta, dass ein Höllenloch ist. Es handelt sich also nicht um eine umweltfreundliche Religion“.
Ellen Goodman beklagt sich über die „Menschen-Verschmutzung“ (Washington Post, 3. März 1990, p. A25)
Ein Herblock-Cartoon zeigt, dass die USA die „Weltbevölkerungs-Explosion“ vernachlässigen (Washington Post, 19. Juli 1990, p. A22)
Hobart Rowen vergleicht das Bevölkerungswachstum mit “dem Seetang, welcher in riesigen Sprüngen wächst“ (Washington Post, 1. April 1990, p. H8).
Ein Newsweek „My Turn” [?] schlägt vor, jedem Teenager-Mädchen einen Scheck bis zu jeweils 1200 Dollar zu überreichen, damit sie kein Baby bekommen, „um die unerbittliche Zunahme der Menschen zu stoppen“ (Noel Perrin. “A Nonbearing Account”, 2. April 1990, p. 9).

Klimaänderung

Behauptung im Januar 1970: Bis zum Jahr 1985 wird die Luftverschmutzung dafür gesorgt haben, das auf die Erde einfallende Sonnenlicht zu halbieren” Life Magazine, Januar 1970. Life Magazine merkte auch an, dass einige Menschen anderer Ansicht sind, „aber die Wissenschaftler haben solide und historische Beweise, die jede der Vorhersagen stützen“.
Daten: Die Luftgüte hat in Wirklichkeit seit 1970 zugenommen. Studien zufolge ist das die Erde erreichende Sonnenlicht in der fraglichen Zeit um 3% bis 5% zurück gegangen.
Behauptung im April 1970: “Falls sich die gegenwärtigen Trends fortsetzen, wird die Welt … bis zum Jahr 2000 um 11 Grad kälter sein. Das ist etwa doppelt so viel, wie nötig wäre, um uns in eine Eiszeit zu werfen“. Kenneth E.F. Watt, in Earth Day, 1970.
Daten: der NASA zufolge hat die Temperatur seit 1970 um etwa 1°F zugenommen.
Behauptung 1970: „In zehn Jahren wird das gesamte wichtige Tierleben im Ozean aussterben. Große Gebiete an der Küste werden evakuiert werden müssen wegen des Gestanks der toten Fische“. Paul Ehrlich, Rede während Earth Day 1970.
Behauptung 1972: „Arktisexperte Bernt Balchen sagt, dass ein allgemeiner Erwärmungstrend am Nordpol die polare Eiskappe schmelzen werde und bis zum Jahr 2000 zu einem eisfreien Arktischen Ozean führen könne“ Christian Science Monitor 8. Juni 1972.
Daten: Die Eisbedeckung ist zurück gegangen, doch waren im vorigen Monat 3,82 Millionen Quadratmeilen [ca. 9,9 km²] des Arktischen Ozeans mit Eis bedeckt – ein Gebiet, das größer ist als die kontinentalen USA. Quelle:  The National Snow and Ice Data Center.
Behauptungen 1974: „…wenn Meteorologen einen Mittelwert der globalen Temperatur bilden, haben sie entdeckt, dass die Atmosphäre während der letzten drei Jahrzehnte graduell immer kühler geworden ist. Der Trend zeigt keine Anzeichen, sich umzukehren. Klimatologische Kassandra-Rufe werden immer besorgter, weil die von ihnen untersuchten Wetteranomalien Vorboten einer weiteren Eiszeit sein können. Anzeichen dafür finden sich überall – von der unerwarteten Persistenz und Dicke von Packeis in den Gewässern um Island bis zur Migration wärmeliebender Tiere wie dem Gürteltier aus dem Mittleren Westen nach Süden. Der Klimatologe George J. Kukla vom Lamont-Doherty Geological Observatory an der Columbia University und seine Frau Helena haben Wetter-Satellitendaten der Nordhemisphäre untersucht. Dabei fanden sie heraus, dass sich das mit Eis und Schnee bedeckte Gebiet im Jahr 1971 plötzlich um 12% ausgedehnt hat und die Ausdehnung seitdem unverändert anhält. Gebiete der Baffin-Insel in der kanadischen Arktis beispielsweise waren einst im Sommer völlig frei von Schnee, während der Schnee jetzt das ganze Jahr über liegt“.
Weiter unten in dem Artikel heißt es: „Was auch immer die Ursache dieses Abkühlungstrends ist, seine Auswirkungen können extrem gefährlich, wenn nicht katastrophal sein. Wissenschaftler haben errechnet, dass ein Rückgang von lediglich 1% des auf die Erde treffenden Sonnenlichts die Klimabalance kippen und den Planeten abkühlen lassen kann. Damit könnte sich die Erde auf dem Weg zu einer weiteren Eiszeit innerhalb von nur wenigen hundert Jahren befinden“. Quelle: Another Ice Age, Time Magazine, 24. Juni 1974.
Behauptung 1989: „Aus Computermodellen haben Forscher den Schluss gezogen, dass die globale Erwärmung die jährlichen Temperaturen landesweit [in den USA] um 2 Grad bis zum Jahr 2010 steigen lassen kann”. Associated Press, 15. Mai 1989.
Daten: der NASA zufolge ist die Temperatur weltweit seit 1989 um 0,7° Fahrenheit gestiegen. Und die Temperatur der USA ist im gleichen Zeitraum sogar noch weniger gestiegen.
Behauptungen: „Der britische Winter endet morgen mit weiteren Anzeichen einer außerordentlichen [striking] Umweltveränderung: Schnee beginnt, aus unserem Leben zu verschwinden“.
„Schlitten, Schneemänner, Schneebälle und … sind allesamt ein rasch schwindender Anteil der britischen Kultur, da wärmere Winter – welche Klimawissenschaftler der globalen Erwärmung zuschreiben – nicht nur weniger Weiße Weihnachten, sondern auch weniger weiße Monate Januar und Februar bringen“.
„Der letzte große Schneefall in London ereignete sich im Februar 1991“. – „Die globale Erwärmung, das Aufheizen der Atmosphäre durch zunehmende Mengen industrieller Gase, wird jetzt als Wahrheit von der internationalen Gemeinschaft akzeptiert“.
Dr. David Viner zufolge, einem leitenden Forschungswissenschaftler an der Climate Research Unit (CRU) der University of East Anglia, „werden Kinder einfach nicht mehr wissen, was Schnee ist“, und Schneefall im Winter wird „ein sehr seltenes und aufregendes Ereignis“ werden. Er sagte dies in einem Interview des UK-Magazins Independent am 20. März 2000.
„David Parker am Hadley Centre for Climate Prediction and Research in Berkshire sagt definitiv, dass britische Kinder nur noch virtuell die Erfahrung von Schnee machen könnten“. Quelle all dieser Behauptungen: Snowfalls are now just a thing of the past. The Independent. 20. März 2000.
Daten: “Der kälteste Dezember seit Beginn von Aufzeichnungen, in dem die Temperaturen unter minus 10°C gesunken sind, stürzt das britische Reiseleben ins Chaos“ [hier]. Mailonline, 18. Dezember 2010
Behauptung: „Bis 1995 würde der Treibhauseffekt die zentralen Gebiete von Nordamerika und Eurasien mit schrecklichen Dürren und in der Folge Missernten und Revolten um Nahrungsmittel verwüsten … bis 1996 würde der Platte River in Nebraska austrocknen, während ein kontinentweiter schwarzer Blizzard von Prärie-Boden den Verkehr auf Autobahnen stoppen, die Farbe von Häusern schmirgeln und Computer zum Abschalten bringen wird“. Quelle: Michel Oppenheimer and Robert H. Boyle, Dead Heat, St. Martin’s Press, 1990.
Oppenheimer ist Albert G. Milbank-Professor [?] der Geowissenschaften und internationaler Angelegenheiten in der Woodrow Wilson School und dem Department für Geowissenschaften an der Princeton University. Er ist Direktor des Programms für Wissenschaft, Technologie und Umweltpolitik an der Wilson School. Er war früher leitender Wissenschaftler beim Environmental Defense Fund, der größten Nicht-Regierungs-Organisation in den USA, die Probleme und Lösungen bzgl. Treibhausgase untersucht.
Daten: Konfrontiert mit diesen seinen früheren Vorhersagen stellte Oppenheimer fest: „Im Großen und Ganzen würde ich bei diesen Prognosen bleiben – Entschuldigung, nicht Prognosen, sondern Szenarien – die zumindest allgemein eingetroffen sind“, sagte er. „Es gab extensive Dürren, verheerende Dürren in wichtigen Teilen der Welt. Der unter Dürren leidende Anteil der Welt hat während dieser Zeitspanne zugenommen“.
Allerdings ist diese Behauptung offensichtlich unwahr. Daten des NASA Goddard Space Flight Center zeigen, dass Niederschläge – Regen und Schnee – im Laufe des Jahrhunderts leicht zugenommen haben.

Wie können Wissenschaftler so abwegige Behauptungen aufstellen? Dr. Paul Ehrlich, Autor von „The Population Bomb“ und Präsident des Center for Conservation Biology an der Stanford University sagte FoxNews.com, dass sich das Denken über Klimawissenschaft in den siebziger und achtziger Jahren erheblich verändert habe.
Ehrlich hat FoxNews.com erzählt, dass die Konsequenzen einer zukünftigen Erwärmung grässlich sein können.
Anthony Watts
=============================================================
Quelle: University of Georgia, Terry College of Business. Economics 2200, Economic Development of the US, David B. Mustard
http://www.terry.uga.edu/~mustard/courses/e2200/pop.htm
UPDATE: reader Dennis Wingo writes in with this table:
Aktualisierung: Der Leser Dennis Wingo bringt die folgende Tabelle ins Spiel:
„Hervorragender Artikel! Ich habe selbst in meinem Buch „Moonrush“ dazu Stellung genommen. Ich habe alle Vorhersagen hinsichtlich der Erschöpfung von Ressourcen aus dem Buch entnommen und rot die bereits verstrichenen Ultimaten gekennzeichnet. Alle Vorhersagen waren falsch!

Link: http://wattsupwiththat.com/2013/01/19/great-moments-in-failed-predictions/#more-77832
Übersetzt von Chris Frey EIKE