Die Hockeystick Affäre: Erklären oder zurücktreten!

Abweichung zwischen gefilterten Hadley-Daten (rot) und den gesamten verfügbaren Daten (schwarz)
Abweichung zwischen gefilterten Hadley-Daten (rot) und den gesamten verfügbaren Daten (schwarz)

Steve McIntyre hat seit 2003 die den Rekonstruktionen der Climate Research Unit (CRU), die mit dem Hadley Centre des UK Met Office verbunden ist, zugrundeliegenden Daten gefordert. Er konnte zunächst nur nachweisen, daß die mathematische Methodik, die der 1999 von Mann et al. präsentierten Hockeystick-Kurve zugrunde lag, falsch war. Kürzlich wurden die für die Baumring-Temperaturrekonstruktion benutzten Daten trotz der jahrlangen Weigerung der daran beteiligten Wissenschaftler wie Dr. Briffa jetzt endlich offengelegt (wegen einer Veröffentlichung in den Philosophical Transactions der Royal Society, die auf die Einhaltung strenger Regeln bezüglich der Offenlegung von Daten achtet). McIntyre konnte aus den Daten ableiten, dass bei der Temperaturrekonstruktion nur eine kleine Datenauswahl berücksichtigt wurde, um die These vom beispiellosen Temperaturanstieg im 20. Jahrhundert zu stützen. Die Gesamtdaten unterstützen die These durchaus nicht (siehe Graphik). externer Link Quelle (englisch, externer Link

Diese News erschien bei Klimasketiker Info. Details dazu hier.

Die gesamte Hockeystick Tragik-Komödie hat Gastautor Rudolf Kipp nochmals aufbereitet: Interessierte finden sie hier.

Eigentümlich frei Autor von Jörg Janssen hat dieser dramatischen Entwicklung ebenfalls einen Artikel gewidmet. Wetterscientology: Die Kriminologie der Klimatologie


* John Houghton sagte auch:

"I believe that God is committed to his creation, a commitment he has demonstrated by sending Jesus into the world to be the saviour of our human race. God has not left us to do it on our own. That he is there to help us wit the the great task has been a great source of strength to me in my work at IPCC ehem. Co-Chairman IPCC"

Quelle: JAMES SCHLESINGER, FIRST U.S. SECRETARY OF ENERGY IN “THE  THEOLOGY OF GLOBAL WARMING”

Weitere Hockeystick Infos hier




Wäre ein Aus für den Europäischen Emissionshandel eine Katastrophe?

Die Entscheidung des Europäischen Gerichtshofs den EU-Staaten ein höheres Maß an Autonomie bei der Wahl ihrer Emissionsziele für die Nationale Allokationspläne zuzugestehen wird von einigen Kommentatoren als ein schleichendes Ende der europäischen Emissionshandels interpretiert. Hardliner befürchten, das Europa seine ambitionierten Klimaziele wirtschaftlichen Problemen unterordnet. Auch wenn dieses Urteil noch etwas verfrüht erscheint, so weist diese Entscheidung auf ein fundamentales Problem des europäischen Treibhausgashandels hin. Seine Kosten sind im Vergleich zum Nutzeffekt für das Klima und für die einzelnen Länder extrem hoch. Für klimapolitische Vorreiter war dieses Problem jedoch stets von untergeordneter Bedeutung. Ihnen ging es um Planerfüllung, um auf internationalen Verhandlungen mit dem erreichten prahlen zu können. 

Tatsächlich ist die Idee des Treibhausgashandels bestechend einfach und elegant. Da eine effiziente Verteilung knapper Güter versagt, wenn keine Eigentumsrechte existieren oder einzelnen Individuen zugeordnet werden können, kamen findige Ökonomen vor Jahrzehnten auf die Idee, diesem Manko durch eine künstliche Verknappung bislang öffentlicher Umweltgüter abzuhelfen. Sie versprachen sich davon, dass der Marktmechanismus wieder in Gang gesetzt wird und der Preis für den neugeschaffenen Handelsgegenstand dessen tatsächliche Knappheit signalisiert. Das würde die Unternehmen zu Innovationen und die Konsumenten zur Sparsamkeit motivieren. Gerade in der Umweltpolitik, die ihre Legitimation zu großen Teilen aus der mangelnden Zuordnung von Einkommensrechten zu Umweltgütern zieht, erhoffte man sich mit diesem Verfahren eine rasche Verbesserung der Umweltbedingungen bei gleichzeitig geringerem Kostenaufwand. So elegant der Emissionshandel in der Theorie ist, so anspruchsvoll ist seine Implementierung und seine Wirkung hängt maßgeblich von den Eigenschaften des Umweltproblems ab. Zum einen kann der Emissionshandel seine Vorteile nur dann ausspielen, wenn er alle Schadstoffemissionen aus allen erdenklichen Quellen einschließt, zum anderen kommt es darauf an, dass das zu lösende Umweltproblem tatsächliche eine starre Zielsetzung rechtfertigt. Für einen erfolgreichen Einsatz dieses Instruments ist es maßgeblich, ob die simulierte Verknappung der Umweltinanspruchnahme durch die Wirtschaft tatsächlich der realen Knappheit entspricht. Ist dies nicht der Fall, so äußern sich kritische Stimmen, wirkt der Emissionshandel wie ein Schnellzug, der in den falschen Bahnhof geleitet wird. 

Bei der Einführung des Emissionshandels in Europa wurden diese Bedenken nie besonders ernst genommen. Natürlich gab es immer wieder Bedenkenträger unter den Experten, aber dennoch führte umweltpolitischer Aktivismus zu einer symbolischen Klimapolitik, die in ihrer Bilanz nur hektische Betriebsamkeit statt echter Wirkung gegen den globalen Ausstoss von Treibhausgasen brachte. Auch das eigentliche Ziel des Emissionshandels, die Kosten der Emissionsminderung so niedrig wie möglich zu halten, wurde bei der Umsetzung des Projekts nie ernsthaft verfolgt. Bei den üblichen Versuchen übermäßige Ambitionen mit der Realität von Interessengruppenkompromissen zu kombinieren, wurde das denkbar schlechteste Ergebnis erreicht. Von Anfang an war klar, dass eine Verteuerung der Energie durch den Emissionshandel zum Verlust der Wettbewerbsfähigkeit energieintensiver Industrien in Europa führen würde, mit dem Ergebnis von Standortverlagerungen und einer Mehrnachfrage nach Energiegütern aus dem außereuropäischem Ausland. Während für die Bürger Europas Energie immer teurer wurde und ihnen nichts weiter übrig blieb als den Gürtel enger zu schnallen, verpuffte der Reduktionseffekt bei den Treibhausgase durch die globale Mehrproduktion der Industrie. Kein Wunder, dass die einheimischen Industrien, vor allem in Osteuropa, jetzt den Riegel vor den Verlust der weiteren Wettbewerbsfähigkeit schieben wollen. Aber auch innerhalb Europas wurde das Ziel des Emissionshandels verfehlt, weil man sich nicht auf eine Politik einigen konnte, die alle Sektoren gleichermaßen mit einbezog. Im Ergebnis wenden die Unternehmen und Verbraucher in Europa für die Vermeidung von Kohlendioxid Kosten auf, die sich zwischen den Sektoren bis um den Faktor zehn unterscheiden. Wer wenig Klimaschutz zu hohen Kosten erzwingt, kann sich wahrlich nicht als Klimaschützer bezeichnen. Die EU-Kommission hat dies nicht davon abgehalten, sich trotzdem auf jeder internationalen Klimaschutztagung das Mäntelchen der Führungsposition umzulegen. 

Ohne Beachtung blieb auch die Erkenntnis der Ökonomen, dass der Emissionshandel nur das Instrument der Wahl ist, wenn dem zu bekämpfende Schadstoff tatsächlich erhebliche Schadwirkungen zugeordnet werden können. Doch ist es ein Allgemeinplatz, dass die vermeintliche Klimawirkung des Kohlendioxids nicht von jeder einzelnen Tonne, sondern von der Gesamtmenge in der Atmosphäre abhängt. Starre Zielsetzungen in einem engen zeitlichen Korsett, wie sie der Emissionshandel umsetzen helfen soll, sind daher nicht das angemessene Klimaschutzkonzept. Es ist irrelevant, ob eine bestimmte Minderung heute, in ein zwei Jahren oder auch in einem Jahrzehnt erreicht wird. Wichtig ist allein, dass die Kosten jeder Emissionsminderung nicht höher als die Schäden zusätzlicher Emissionen sind. Ein starrer Zielpfad nimmt jedoch keine Rücksicht auf Wirtschaftskrisen oder Veränderungen der relativen Energiekosten, er schreitet voran, koste es was es wolle. Auch hier ist es kein Wunder, dass sich die gebeutelten Unternehmen in Polen und Estland die engen Fesseln der europäischen Kommission nicht gefallen lassen wollen. Deren Kosten sind im Vergleich zu den Nutzen der Emissionsminderungen enorm. Hier wäre ein flexibler Ansatz notwendig gewesen, der von vornherein die Nutzen-Kosten-Bilanz der Klimapolitik nicht aus dem Auge verliert. 

Vor diesem Hintergrund kann ein Aus für den europäischen Emissionshandel wahrlich nicht als Katastrophe bezeichnet werden. Selbst unter der Prämisse eines dringenden klimapolitischen Handlungsbedarfs würde dies die Chance für eine Öffnung für neue, kreativere Klimaschutzstrategien öffnen, die vor allem der Anpassung an unvermeidliche Probleme klimatischer Veränderungen, seien sie nun durch den Menschen verursacht oder nicht, mehr Platz einräumen. Tatsächlich gilt es die Märkte für mehr Innovationen im Energiebereich zu fördern, was aber nicht viel mehr bedeutet, als die heutigen Fesseln der Industrie- und Energiewirtschaft zu lockern, aber auch unwirtschaftliche Subventionen rigoros abzubauen. Wer Effizienz im Klimaschutz erwartet, der sollte nicht engstirnig auf die schlechte Umsetzung eines an sich guten Instruments wie den Emissionshandels pochen, sondern auf den Wettbewerb einer Vielzahl von Ideen hoffen, auch wenn diese in den Lehrbüchern nicht so prominent vertreten sind. So unsicher wie unsere Klimazukunft ist, so vermessen sind Patentrezepte, vor allem dann, wenn sie nicht einmal das bekannte Wissen berücksichtigen. Den Artikel der SZ finden Sie hier

Steffen Hentrich
Referent

Friedrich-Naumann-Stiftung für die Freiheit
Liberales Institut

 Lesen Sie dazu auch den Artikel der New York Times. EU EMISSIONS TRADING SCHEME MAY DESTROY EUROPE’S COMPETITIVENESS




Arktiseis III:Das Ende der Arktischen Schmelzsaison – Ein Resümee!

Diese Tage genügt ein Blick aus dem Fenster um zu erkennen, dass der Sommer vorüber ist und der Herbst langsam Einzug hält. Und weil in diesem Jahr neben Weihnachten außerdem noch die Weltklimakonferenz in Kopenhagen vor der Tür steht, können wir sicher sein, dass ähnlich wie die Menge an Lebkuchen und Schokonikoläusen in den Geschäften auch die Zahl der Publikationen zum Thema Klimawandel und seine Folgen in der Presse in Richtung Dezember rasant ansteigen wird.

Und ebenso sicher können wir sein, dass sich ein nicht geringer Teil dieser Publikationen mit der Eisentwicklung an den Polen beschäftigen wird. Die Arktis und die Antarktis bergen mit ihren riesigen Massen an gespeichertem gefrorenen Wasser nun einmal die beste Grundlage für Horrorszenarien, welche das Wort Sintflut enthalten.

Der Verlockung, dieses Potenzial auch zu nutzen erliegen nicht nur Klimaforscher. Auch die Medien, welche sich ohnehin begeistert auf alles werfen, was sich irgendwie als Katastrophenmeldung verwerten lässt, finden an Arktis und Antarktis großen Gefallen. Süße Eisbären und Pinguine und die globale Katastrophe in einer Meldung unterbringen zu können, stellt nun mal einen unwiderstehlichen Reiz dar.

Arktiseis als Sommerloch-Füller

Daher haben auch in diesem Sommer wieder verschiedene Horrorszenarien über die Entwicklung des Eises in der Antarktis die Presse erreicht. Zwei Fragen waren dabei besonders im Fokus. Zum einen bis wann das Eis in der Arktis im Sommer ganz verschwunden sein wird und zum anderen ob das Arktiseis in diesem Jahr ein erneutes Minimum erreicht.

Ebenfalls den Weg in die Presse gefunden hat das neue Lieblingskind der Arktisforscher, nämlich die Eisdicke, beziehungsweise das Eis-Volumen. Weil der Rückgang der Eisbedeckung in der Arktis seit 2007 eine Pause eingelegt hat, will man uns alarmistisch bei der Stange halten, indem man uns erzählt, dass aber auch die Eisdicke abgenommen habe und dass das 2008 und 2009 neu gebildete Eis ja noch dünnes schwaches “Baby-Eis” sei, welches dann im Sommer schnell wieder wegschmelzen würde.

Letzteres ist allerdings bislang nicht eingetreten, so dass aus dem Baby-Eis möglicherweise bald ausgewachsenes Eis wird und die Arktisforscher sich ein neues Thema suchen müssen.

Die Geschichte der Nordost-Passage

Als besonders kreativer Beleg für den Klimawandel kann die “erstmalige Befahrung der Nordost-Passage durch zwei deutsche Schiffe” betrachtet werden. Durch das verschwindende Eis wäre diese Route Meldungen zufolge erstmals schiffbar gewesen (hier und hier). Richtig an der Geschichte ist vermutlich nur, dass es die ersten deutschen Schiffe waren die diese Passage genommen haben. Tatsächlich jedoch ist die Nordost-Route eine seit 1935 kommerziell und militärisch genutzte Schiffahrtsroute (hier), durch welche in manchen Jahren über 200.000 Tonnen Ladung bewegt wurden. Man kann sogar Kreuzfahrten buchen.

Auf dem Höhepunkt der diessommerlichen Arktis-Schmelze-Berichterstattung am 11. August schrieb dann der Spiegel: “Forscher befürchten neuen Eisschmelze-Rekord” und die “Welt” titelte gar: “Sommer 2009 ist für die Arktis verheerend”. Anlass für die Meldungen war eine Publikation eines amerikanischen Forscherteams, welches sich mit der Eisentwicklung in der Arktis beschäftigt hatte. Als besonders besorgniserregend sahen die Wissenschaftler das schnelle Abschmelzen des Eises im Juli an. Außerdem betonte der Hauptautor, dass das Eis in der Arktis außergewöhnlich dünn und verwundbar sei. Daher, so warnte er, könnte die Eisfläche bis September noch unter die Tiefstwerte schrumpfen.

Wer schätzt am besten?

Ein ähnliches Unterfangen, nämlich das Vorhersagen der Eisentwicklung anhand von Modellen und Beobachtungen, gab es auch bei uns in Europa. Erinnern wir uns zurück. Im Juni stellte das Alfred-Wegener-Institut in einer Pressemeldung folgende Frage: “Neues Rekordminimum der arktischen Meereisbedeckung?” und gab die Wahrscheinlichkeit dafür damals mit 28 Prozent an.

Die Wissenschaftler vom AWI nahmen im Rahmen eines europäischen Forschungsprojektes, welches ganz unspektakulär DAMOCLES getauft wurde, an einer Art Wettbewerb teil. In diesem gaben verschiedene Teams von Klimawissenschaftlern Prognosen für die minimale Ausdehnung der arktischen Eisbedeckung ab und ermittelten so, welches Modell die beste Prognose produzieren kann. Europa sucht die Super-Modellierer sozusagen.

Im Moment sieht alles danach aus, dass in der Arktis das Minimum der Eisbedeckung für dieses Jahr erreicht ist. Nach zwei Tagen wachsender Eisfläche um diese Jahreszeit erscheint dies sehr wahrscheinlich. Damit bietet sich die Gelegenheit, die Vorhersagen der Wissenschaftler einmal mit der Realität zu vergleichen. Und dabei fällt einem schnell auf, dass das Eis in der Arktis wohl wenig von Modellrechnungen hält. Im August lag die beste Schätzung der Forscher bei fünf Millionen Quadratkilometern. Das echte Eis war 240.000 Quadratkilometer größer. Das ist in etwa die Fläche von Großbritannien.

Eigene Grafik, Datenquelle:http://www.arcus.org/search/seaiceoutlook/2009_outlook/full_report_august.php </dd></dl>

Eisentwicklung zeigt positiven Trend

Wenn man sich den Verlauf der Eisentwicklung in der Arktis der letzten Jahre anschaut, dann kann von einer Abnahme der Eisbedeckung oder gar von einem beschleunigten Abschmelzen momentan keine Rede sein. Ganz im Gegenteil. Das Eis in der Arktis wächst seit 2007. So erleben wir 2009 im zweiten Jahr in Folge einen Zuwachs beim sommerlichen Tiefstand. Im Vergleich zu 2008 hat die Eisfläche in diesem Jahr um über 530.000 Quadratkilometer zugenommen, was ungefähr der Fläche Frankreichs entspricht.

Eigene Grafik, Datenquelle: http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm </dd></dl>

Legt der Klimawandel eine Pause ein?

Die zunehmende Eisbedeckung der Arktis wird jedenfalls kaum geeignet sein, den Alarmisten als Munition für die Verhandlungen in Kopenhagen zu dienen. Man darf also gespannt bleiben, welche weiteren “Hot-Spots” uns bis dahin noch präsentiert werden. Und es bleibt auf jeden Fall weiter interessant zu beobachten, wie lange die Prediger des kommenden Erwärmungskollaps noch öffentliches Gehör finden wenn die von ihnen prophezeiten Entwicklungen auch weiterhin ausbleiben.

Einige von ihnen scheinen bereits für einen solchen Fall vorzubauen. So hat Mojib Latif, einer von Deutschlands prominentesten Klimaforschern, kürzlich auf der Weltklimakonferenz der UN in Genf offen von der Möglichkeit gesprochen dass die globale Erwärmung eine 20- bis 30-jährige Pause einlegen könnte. Demnach wäre bis 2020 oder 2030 keine weitere Erwärmung zu erwarten. Latif folgerte daraus: “Die Leute werden sagen das die Globale Erwärmung verschwindet.” Er betonte, er wäre “keiner der Skeptiker… aber wir müssen uns selbst die hässliche Fragen stellen oder andere Leute werden es tun”. (“I am not one of the skeptics,” … “However, we have to ask the nasty questions ourselves or other people will do it.” ) (hier, hier , hier und hier)

Sollte sich diese Prognose als zutreffend erweisen und in den nächsten zehn oder 20 Jahren keine weitere Erwärmung eintreten, dann müssen sich die Klimaforscher in der Tat auf einige “hässliche Fragen” gefasst machen. Nur steht zu befürchten, dass für die Folgen der Klimaforschung ganz andere zu bezahlen haben.

Weiterführende Links:

Arktische Eisausdehnung aktuell (NSIDC)

Eisentwicklung in der Arktis seit 1979 (NSIDC)

Antarktische Eisausdehnung aktuell (NSIDC)

Eisentwicklung in der Antarktis seit 1979 (NSIDC)

Arktische Eisausdehnung 2002-2009 im Vergleich (IARC-JAXA)

Arktische Eisausdehnung aktuell (Arctic ROOS)

AMSR-E sea ice concentration IFM Hamburg

Arktische Eisausdehnung 1978-2009 (Cryosphere Today)

Antarktische Eisausdehnung 1978-2009 (Cryosphere Today)

Temperaturen in der Arktis im Jahresverlauf (DMI)

Global Sea Surface Temperatures (climate4you)

EIKE Gastautor Rudolph Kipp; Der Beitrag erschien zuerst auf Readers Edition




Asse und Gorleben: Die wahre Geschichte!

Gorleben hat schon unendlich viel Geld gekostet und Zeit verbraucht, was Mi­nister Gabriel nicht davon abhielt, es jetzt für „politisch tot“ zu erklären, um gleichzeitig die Suche nach einem neuen Standort anzu­mah­nen. Bei einem neuen Standort würde alles von vorne anfangen, und nach weiteren 20 Jah­ren würde sich auch der neue irgend­wann als politisch ungeeignet heraus­stellen, und wie­der hätte man Milliarden nutzlos ausgege­ben. Im Oktober 2006 (Heft 39) be­richtete Der Spiegel, Minister Gabriel beabsichtige, mehrere Standorte alternativ zu untersu­chen, um den ‚bestgeeigneten’ zu finden. Bei diesem Konzept blieben Finanzen und Logik glei­chermaßen auf der Strecke: Für Gorleben und Konrad wurden bereits 2,1 Mrd. € ausgegeben, und wie viele Standorte man auch untersuchte, man wüsste nie, dass nicht ein anderer noch besser ist! Ein Standort muss geeignet sein, mehr lässt sich weder bezahlen noch nachweisen.

Bei der letzten großen Protestaktion gegen Castor-Transporte erklärte Claudia Roth in einem Radiointerview genau, wa­rum Gorleben ungeeignet sei: Die Grube Asse hätte als Pilotanlage versagt und das beweise, dass auch Gorleben nicht geeignet sei. Aus fachlichen Gründen ist diese Gleichset­zung nicht nur falsch sondern auch dumm, wie im folgenden gezeigt werden soll.

Unbestreitbar ist Asse als Pilotanlage falsch betrieben worden, und es ist auch keine Entschuldi­gung, dass man zur Zeit der Einlagerung vor Jahrzehnten noch nicht wissen konnte, welche Bri­sanz dieser Komplex einmal haben würde. Das Verhalten des Salzes war schließlich bekannt. Das grundsätzliche Problem der Asse ist nicht der Umstand, dass man die Fässer nicht ord­nungsgemäß in Reih’ und Glied aufgestellt hat – das hätte das heutige Problem nicht verhindert –, sondern dass man sie in ausgebeutete und aufgelas­sene Strebe eingelagert hat, die sich zu nahe am Rande des Salzstockes befinden, und dass diese Einlagerungskammern nicht anschließend dicht abgeschlossen wurden. Ihre randnahe Lage er­gab sich aus dem Umstand, dass sich dort die Salzarten befanden, die man gewinnen wollte. Wa­rum verursachen die randnahe Lage und das Offenlassen das Problem?  Die Kenntnis einiger Fakten kann helfen, die Gründe für das Prob­lem zu verstehen.

Bildung der Salzstöcke

Bis vor ca. 240 Millionen Jahren war Mitteleuropa über einen Zeitraum von ca. 10 Millionen Jahren von einem flachen Meer bedeckt. Dieses ‚Zechstein-Meer’ war nach Nordwesten mit dem Ozean verbunden, und da warmes Klima herrschte, verdunstete aus dem Zechstein-Meer viel Wasser. Frisches Ozean-Wasser floss nach und vergrößerte mit seiner gelösten Salzfracht die Salzkon­zentration des Meeres soweit, dass das Salz auskristallisierte und als mehrere hundert Meter mächtiger Stapel horizontal abgelagert wurde. Als diese Periode zu Ende ging, wa­r im Raume Hanno­ver sogar eine Schicht von etwa 1200 m Salz abgelagert worden. In den darauf­folgenden geologi­schen Perioden wurden über dem Salz bis zu 1500 m jüngere Sedimente ab­gelagert. Ihr Gewicht konnte das Salz nicht aushalten – und musste es auch nicht, denn es kann sich unter Auflast langsam bruchlos verformen und sehr langsam ‚fließen’ – viskoplastisch wird dieses Verhalten genannt. Salz ist außerdem leichter als die jüngeren Sedimente. Wegen beider Eigen­schaften ist es in Jahrmillionen in die Bereiche mit geringe­rer Auflast gewandert und dort in die überlagern­den Schichten eingepresst worden. Die Abbildung 1 illustriert mit 8 parallelen Schnitten diese Ent­wick­lung in den aufeinanderfol­genden geologischen Epochen an Beispiel des Salzstockes Gorleben.

 

Abbildung 1: Zeitliche Entwicklung eines Salzstockes durch Salzaufstieg (Quelle: Bundesanstalt für Geowissenschaften und Rohstoffe – BGR)

Das aufsteigende Salz hat die umge­benden Gesteine seitlich verdrängt und ist pilzar­tig als ‚Salz­stock’ aufgestiegen. Dieser Aufstieg geht zu Ende, wenn der größte Teil des ursprünglichen Salzlagers ausgewandert und in den Salz­stock einge­presst worden ist. Unter der norddeutschen Tiefebene existieren viele solcher Salz­stöcke, und jeder hat seine eigene Geometrie und innere Struktur. Im allgemeinen sind sie bis zu 3000 m tief und wenige bis viele Kilometer lang, bei einer Breite bis zu einem Kilometer.

Beim Salzstock Gorleben begann dieser Aufstieg schon bald nach der Ablagerung der Se­dimente in der ‚Buntsandsteinzeit’ etwa ab 240 Millionen Jahren und setzte sich in der Folgezeit fort. Zu Beginn der Tertiärzeit, also vor 65 Millionen Jahren, reichte der Salzstock bis an die Oberfläche. Im Alttertiär ging der Aufstieg zu Ende, weil in der Region die für die Abwanderung des Salzes verfügbare Menge weitgehend ausge­presst war, also aufgestiegen ist. Danach wurde der Salz­stock im Jungtertiär und im darauf folgenden Quartär von bis zu 160 m Sedimenten überlagert (Abbildung 2). In dieser Zeit, also seit etwa 23 Millionen Jahren, ist der Salz­stock nur noch um ca. 0,03/a mm aufge­stiegen, also um 3 mm in 100 Jahren. Er ist seitdem praktisch sta­bil. Viermal wurde er in den Eiszeiten der letzten 650.000 Jahre für jeweils Zehn­tausende von Jahren von mächtigen Gletschern belastet. Die Sedimente wurden verdichtet, der Salzstock blieb erhalten.

 

Abbildung 2: Überlagerung des Salzstockes von Gorleben nach dem Auslaufen des Salsaufstieges im Jungtertiär und Quartär (Quelle: Bundesanstalt für Geowissenschaften und Rohstoffe – BGR)

Dichtigkeit der Salzstöcke

Die Salze liegen in kristallisierter Form vor. Die Grenzflächen zwischen den Kristallen sind ge­schlossen; sie blei­ben es, wenn sich die Salzkörper sehr langsam ver­formen. Wie alle Kristalle, sind Salzkristalle jedoch spaltbar und deshalb können sie oder Grenz­flächen zwischen ihnen bei großen Drücken aufge­presst werden.

Die Gesteinsschichten in der Umgebung der Salzstöcke enthalten Grundwas­ser. An den Kontakt­flächen der Salzstöcke wird deshalb solange Salz abgelöst, bis das Wasser gesät­tigt ist. Ob das viel ist und ständig erfolgt, oder wenig und dann stagniert, wird von der Ge­schwindigkeit be­stimmt, mit der sich das Grundwasser erneu­ern kann. Erfolgt der Grundwasseraus­tausch wegen ungünstiger hydrogeologischer Verhältnisse schnell, löst das Grund­wasser den Salzstock auf – er verschwindet, und es bleiben nur noch die unlösli­chen Reste zurück – sog. ‚Restbrekzien’ (Ab­bildung 3). Salzstöcke sind des­wegen ent­weder nicht mehr vor­handen oder sie sind dicht, denn das den Salz­stock umgebende stag­nie­rende Grundwas­ser ist mit Salz gesättigt und kann deshalb kein weiteres Salz auf­nehmen. Das salzge­sättigte Wasser ist außerdem schwe­rer und fließt nicht nach oben. Ein noch existierender Salz­stock be­weist folglich, dass keine Grundwas­sererneue­rung statt findet, und der Salzstock erhalten bleibt. Diese Gesetzmäßigkeiten sprechen dafür, dass die Salzstöcke auch in Zukunft so bleiben wie sie in den letzten Jahrmillionen wa­ren, ande­renfalls gäbe es sie nicht mehr.

Eine besondere Situation liegt über den Salzstöcken vor: Analog zum seitlichen Außenrand der Salzstöcke hat sich das dort vorhandene Grundwasser mit gelöstem Salz gesät­tigt, unlösliche Gesteinspartien sind als Restbrekzie erhalten geblieben. Bei schnellem Was­seraustausch wäre der Salzstock in der geologischen Vergangenheit zur Tiefe hin abgelaugt wor­den und würde nicht mehr existieren. Er existiert noch, weil wegen günstiger hydrogeologi­scher Gegeben­heiten kein Wasseraustausch statt fand, oder so ge­ring war, dass er wirkungslos blieb. Abbildung 3 zeigt die Restbreckzie über dem Salzstock Gorleben. Ihre geringe Mächtigkeit von einigen zehn Metern beweist, dass die Ablaugung unerheblich geblieben ist, und das wird auch zukünftig nicht anders ein.

 

Abbildung 3: Restbrekzie über  dem Salzstock Gorleben (Ausschnitt) (Quelle: Bundesanstalt für Geowissenschaften und Rohstoffe – BGR)

Problem der Asse

In der Tiefe der Einlagerungskammern von ca. 500 m herrscht im Nachbargestein ein Wasser­druck von ca. 50 bar. Für den Salzstockrand ergibt sich daraus ein sehr großer Wasserdruck, der auf die stehen gebliebene Salzbarriere zwischen Außenrand und Einlagerungskammer einwirkt. Er bewirkt, dass einzelne Grenz­flä­chen zwischen den Salzkristal­len aufgepresst werden und Grundwasser von außen in die Einla­gerungskammern einsickern kann. Von 12 m³ pro Tag ist die Rede, das sind 500 l/h bzw. 8,3 l/min bzw. 0,13 l/sec, also je Minute ungefähr ein Wassereimer voll. Selbstverständlich ist das nicht akzeptabel. Aber es ist kein Wassereinbruch, denn dann handelte es sich um viele Kubikmeter pro Sekunde.

Die Einsickerung von Grundwasser aus dem Nachbargestein wäre vermieden worden, hätte man die Kammern im In­neren des Salzstockes ange­ordnet, also weit genug vom Rand entfernt, und wären sie nach ihrer Füllung ver­schlos­sen wor­den. Das kann man heute noch tun. Eine solche Sanierung wäre die einfachste und vermut­lich preiswerteste Lösung. Das jedenfalls ist die Lehre aus dem Fall Asse. Falsch ist, wenn von manchen das Zurücksi­ckern der Salzlauge in das Nach­bargestein befürchtet wird. Sowenig wie aus einem abge­tauchten U-Boot Wasser durch ein Loch in der Schweißnaht gegen den Wasser­druck nach außen fließen kann, sickert infiltrierte Lauge freiwillig gegen den Außendruck zurück ins Nachbargestein, und damit in den Wasser­kreislauf.

Gorleben

Am 2.9.2009 zitierte Alexandra Jacobson in der Neuen Westfälischen Jochen Stay mit der Er­kenntnis, “Dass Gorleben ungeeignet sei, weil der Salzstock direkten Kontakt zum Oberflächen­wasser habe, sei zum Glück nun auch einer breiteren Öffentlichkeit bekannt geworden“. Diese Tat­sache ist richtig, widerlegt aber die Folgerung, die Herr Stay für sich ab­leitet oder die für den Leser beabsichtigt ist. Sie beweist vielmehr, dass das Grundwasser den Salzstock nicht auflöst, denn auch hier wirken die zuvor be­schriebenen Gesetzmäßigkeiten: sie garantieren, dass der Salzstock auch in Zukunft so bleibt wie er in den letzten Jahrmillionen war.

Rein zufällig (!) vor der Wahl  ist kürzlich bekannt geworden, dass Kanzler Kohl seinerzeit eine Beurteilung der Physikalisch-Technischen Bundesanstalt modifiziert haben wollte, die 1983 we­gen einer angeblich unzureichenden Mächtigkeit von tonigen Sedimenten über zentralen Berei­chen des Salzstockes eine Kontamination der Biosphäre für möglich hielt. Tatsächlich spielt die Mächtigkeit der tonigen Schichten als Teil der jungen Sedimenten keine Rolle: Auch to­nige Se­dimente sind durchlässig, wenn auch sehr viel weniger als sandige. Selbst sehr große Durchläs­sigkeitsunterschiede sind für diese Pro­zesse unerheblich, denn die Durchlässigkeitsunter­schiede werden durch die langen Zeiträume kompensiert, und über dem Salzstock sind die jun­gen Sedi­mente ohnehin mit salz­gesät­tigtem Grundwasser gefüllt. Das wäre auch bei anderen Mächtig­keiten der tonigen Sedimente nicht anders gewe­sen, und diese Gegeben­heiten wer­den auch künftig vorliegen, weshalb eine Kontamina­tions­gefahr ausgeschlossen werden kann.  Als Mit­glieder einer früheren Niedersächsischen Landesregierung haben die Minister Gabriel und Trit­tin das noch ebenso positiv beurteilt.

Folgerungen

Claudia Roths Beurteilung ist fachlich falsch. Warum ist sie auch dumm? Die wissen­schaftlich-technische Entwicklung ist das Ergebnis von Versuch und Irrtum, was sicher auch Frau Roth weiß. Ohne diese dem Menschen eigene Vorgehensweise wäre unsere durch­schnittliche Lebens­erwartung kaum höher als 30 Jahre, und es herrschte noch mittelalterliches Handwerk, hätte man bei Fehl­schlägen aufgegeben. Bekanntlich hat man sich um Verbesserungen bemüht und war dabei erfolg­reich. Deshalb kom­men wir heute schneller von A nach B als zur Postkutschenzeit – und auch Frau Roth wird dar­auf nicht ver­zichten wollen. Wa­rum sollte man nach soviel Investi­tio­nen, das, was man im Fall Asse gelernt hat, nicht auch in Gorleben anwen­den? Ein ver­nünfti­ger Grund für einen solchen Verzicht ist nicht zu erkennen.

Der tatsächliche Grund ist klar: Da ‚Anti-Atom’ für viele die Existenzgrundlage ist und/oder Wähler­stimmen verspricht, kommt vor Wahlen jedes vermeintliche Argument gegen Asse, Gor­leben, Krümmel etc. wie gerufen, mag es auch noch so falsch und nicht selten sogar ziemlich albern sein – „löchrig wie Schweizer Käse“ – , wobei auch dieser Vergleich falsch ist, denn seine Lö­cher sind nicht miteinander verbunden! Eigentlich sollten sich in Demokratien wahlkämp­fende Führungskräfte schämen, mit plumper Bauernfängerei auf Stimmenfang zu gehen. Es ist schon atemberaubend, mit welcher Sicherheit sich Politiker zu Sachverhalten äußern, von denen sie erkennbar keine Ahnung haben, wenn sie damit nur Wählerstimmen gewinnen können.

Aller­dings sind solche Politiker leider in ‚bester’ Gesellschaft, wenn man bedenkt, welchen Blödsinn man selbst in renommierten Zeitungen lesen kann: So wird im Spiegel CO2 schon mal als giftig bezeichnet, obwohl es mit Wasser die Grundlage unserer Nahrungskette ist. Nach dem Zeit-Dossier von Roland Kirbach (10.9.2009) „…könnte der …Salzstock Asse einstürzen und 126000 Tonnen Atommüll freisetzen.“ Das wirkt dramatisch, und ist ja wohl auch so beabsich­tigt, hat aber mit der Realität nichts zu tun. Wenn Häuser wegen Erdbeben oder das Stadtarchiv in Köln wegen Baufehler einstürzen, suchen wir tagelang – und oft vergeblich – nach Verschüt­teten, und das nur wenige Meter unter der Erdoberfläche. Sollte das Bergwerk Asse denn wirk­lich einstür­zen, was sehr wahrscheinlich überhaupt nicht oder zumindest noch nicht so schnell geschehen wird, würde der Atommüll nicht freigesetzt, sondern in 500 m Tiefe begraben und dabei mit vielen hundert Metern Salz überdeckt.

Der Salzstock von Gorleben ist sachlich ge­eignet, darf es aber aus politischen Gründen nicht sein, denn er eignet sich vorzüglich immer wieder zur Stim­mungsmache und beeinflusst Wahl­entscheidungen – und wie wirksam das funktioniert, wissen wir aus bitterer Erfahrung.

Gegen­wärtig befinden sich auf der Welt 443 Atomkraftwerke im Betrieb, sind 47 im Bau und 81 in der Planung. Deutschland ist von Ländern umgeben, die Atomkraftwerke betreiben; Frank­reich ge­winnt sogar 78% seines Stromes auf diese Weise. Wer dezidiert die Atomkraft für un­verant­wortbar hält, weil sie nach seiner Meinung eine Gefahr für die Menschheit darstellt, und wer den Mut hat zu glauben, nur er wüsste trotz unserer bitteren Erfahrung mit deutscher Hybris schon wieder den richtigen Weg, müsste doch eigentlich versuchen, die anderen Länder, die das Gegenteil praktizieren, von ihrem fal­schen Weg abzubringen. Was nutzt uns Anti-Atom, wenn  weltweit und vor allem in den Nachbarländern Atomkraftwerke betrieben werden, Atomunfälle wirken schließlich global. Da man weiß, dass sich die anderen Länder nicht von uns belehren lassen, geschieht das nicht. Man ist ja, beispielsweise in Frankreich, auch sicher nicht der Mei­nung, dass die eigenen Fachleute und die Politiker dumm und verantwortungslos sind. Unsere diesbezügliche – vernünftige – Zurückhaltung beweist aber auch, was wirklich mit der Aus­stiegs- und Anti-Atom-Politik gemeint ist: Angst zu ma­chen, um Wählerstimmen zu gewinnen.  Und das ist wirklich verantwortungslos!

Apropos Gorleben: Nach seinem Beispiel wird in New Mexico seit Jahrzehnten ein Salz­stock als Endlager betrieben.

Dipl.-Geologe Prof. Dr. Friedrich-Karl Ewert, EIKE

Related Files




Meinungsfreiheit in der Wissenschaft in Gefahr? Wissenschaftler warnt vor bestellter Wissenschaft!

War in einer so wichtigen politischen Streitfrage der nuklearen Entsorgung Riesenhuber wirklich ahnungslos? Dann war er als Minister falsch am Platz. Zumal es ein Gegen-Gutachten des Quartärgeologen Prof. Duphorn gab, der sich vom Befürworter zum Gegner des atomaren Endlagers Gorleben wandelte.

Hat sich prinzipiell nichts geändert? Welche Einflussnahme übt die Politik heute zum „heißen“ Thema Klimawandel aus? Zum Beispiel veröffentlichte der Geophysiker Georg Delisle von der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) 2007 in einer renommierten Fachzeitschrift einen Forschungsbeitrag, der Kritik am IPCC-Bericht übt. Im Wesentlichen geht es darum, dass laut Delisle die Permafrostböden in der Arktis im 21. Jahrhundert nicht gefährdet sind.
In einem “vertraulichen” Dossier des Bundesumweltamtes, das sofort in der taz stand, wurde die Arbeit der Hannoveraner Behörde als “irrelevant”, “eindeutig falsch”, “anmaßend” und “fernab jeder Realität” gegeißelt (Überschrift des taz Artikels: „ Die Amtliche Lüge vom prima Klima”. Dem entgegen hat die American Geophysical Union, (AGU), die jüngste Klima-Publikation von G. Delisle zum “AGU Journal Highlight” gekürt.

Die Kanzlerin, die den Klimawandel als hervorragendes Instrument für milliarden-schwere Einnahmen aus dem CO2-Emissionshandel benutzen will, weiß wahrscheinlich (auch) erwartungsgemäß – ähnlich wie Riesenhuber damals – nichts von den Angriffen auf Delisle und die BGR.

Der wachsende Druck der Politik geht offensichtlich in Richtung Zwang und Gehirnwäsche. Dazu  SPIEGEL ONLINE (17.09.2009): „Immer mehr Industrieländer gehen dazu über, den Klimaschutz auch durch Gesetze zu erzwingen. In Großbritannien wächst laut einer Umfrage die Angst vor einer Klima-Polizei und drakonischen Strafen.“ Gerät auch die Meinungsfreiheit zu Klimawandel und Klimaschutz jetzt in ernste Gefahr?

Prof. Dr. Werner Kirstein