Das Rätsel der Eiszeiten – Teil XII: GCM V – Wie enden Eiszeiten?

Im Teil XI betrachteten wir das Ende der letzten Eiszeit. Hauptsächlich haben wir Shakun et al. (2012) begutachtet, die einige sehr interessante Daten über das Timing der Temperaturen in der Süd- und der Nordhemisphäre gezeigt haben – zusammen mit atmosphärischen CO2-Werten. Kurz gesagt: Die Südhemisphäre begann sich zu erwärmen, kurz danach stiegen auch die CO2-Werte, was zu einer positiven Rückkopplung des initialen Temperaturanstiegs führte, und die globalen Temperaturen folgten der Südhemisphäre:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das Älteste Dryas (OD) und das Letzte Glaziale Maximum (LGM). Fehlerbalken, 1sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle (Aus Shakun et al. 2012, Abbildung 1).

Diese Studie in Nature enthielt auch einige Modellierungs-Arbeiten, die ich in mancher Weise kritisiert habe, aber die Modellierung stand nicht im Mittelpunkt der Studie. Eric Wolff, einer der führenden Komitee-Mitglieder bei EPICA, teilte diese Kritik an der Modellierung, die dann in der gleichen Ausgabe von Nature veröffentlicht wurde.

Im vorliegenden Artikel wollen wir das paper von He et al. (2013) betrachten, ebenfalls in Nature veröffentlicht. Dabei handelt es sich um eine Studie über die Modellierung der gleichen Vorgänge. Einer der Mitautoren ist Jeremy Shakun, der Leitautor unserer früheren Studie. Unter den Mitautoren waren auch Bette Otto-Bliessner, eine der Leitautorinnen im Kapitel zu Paläoklima im AR 5 des IPCC.

He et al. 2013

Leser, die diese Serie bis hier verfolgt haben, werden erkennen, dass das Abstract (aus dem wir unten zitieren) einige bekannte Features enthält:

Der Milankovitch-Theorie zufolge führten Änderungen der sommerlichen Einstrahlung in hohen nördlichen Breiten zu glazialen Zyklen infolge des Einflusses auf die Massenbilanz der Eisschilde. Statistische Analysen langer Klimareihen stützten diese Theorie, stellten aber auch eine substantielle Herausforderung dar, zeigten sie doch, dass Änderungen des Klimas auf der Südhalbkugel in Phase mit diesen auf der Nordhalbkugel waren oder diesen sogar vorausgingen.

Obwohl ein orbital getriebenes Signal auf der Nordhemisphäre irgendwie auf die Südhalbkugel hätte übergreifen können, kann der Strahlungsantrieb das lokale Klima der Südhemisphäre auch direkt beeinflussen, potentiell verstärkt durch Rückkopplungen mit dem Meereis. Dies würde zeigen, dass die beiden Hemisphären unabhängig voneinander auf verschiedene Aspekte orbitaler Antriebe reagieren. Das Aufspüren von Signalen in Klimaaufzeichnungen kann zwischen diesen Bedingungen allerdings nicht unterscheiden, weil die vorgeschlagenen Strahlungsantriebe im Wesentlichen eine identische Variabilität aufweisen. Hier verwenden wir transiente (transient = zeitlich veränderlich, Anm. der Redaktion) Simulationen mit einem gekoppelten allgemeinen Ozean-Atmosphäre-Zirkulationsmodell, um die Auswirkungen der Antriebe durch Änderungen des Orbits, der atmosphärischen CO2-Konzentration, der Eisschilde und der AMOC auf die hemisphärischen Temperaturen während der ersten Hälfte der letzten Deglaziation (vor 22.000 bis 14.300 Jahren) zu identifizieren. Obwohl nur auf einem einzelnen Modell basierend, stützt unsere Transient-Simulation mit ausschließlich orbitalen Änderungen die Milankovitch-Theorie, zeigt sie doch, dass die letzte Deglaziation durch zunehmende Einstrahlung im Frühjahr und Sommer in mittleren und hohen nördlichen Breiten initiiert worden ist sowie durch terrestrische Schnee-Albedo-Rückkopplung.

Weiter heißt es im Abstract:

Die Simulation mit allen Antrieben reproduziert am besten das Timing und die Größenordnung der Temperaturentwicklung auf der Südhalbkugel in den Proxy-Aufzeichnungen aus dieser Zeit.

Dies ist ein Modellergebnis ähnlich dem der Studie im Teil IX, in der das gleiche Verfahren individueller „Antriebe“ und eine Simulation mit allen „Antrieben“ kombiniert angewendet wird. Ich habe „Antriebe“ in Anführungszeichen gesetzt, weil die Antriebe (Eisschilde, Treibhausgase und Schmelzwasserflüsse) tatsächlich Rückkopplungen sind, die zu simulieren die GCMs jedoch nicht in der Lage sind. Änderungen der AMOC, die mit einem orbital induzierten Rückzug der nordhemisphärischen Eisschilde verbunden sind, sind die plausibelste Erklärung für die frühe Erwärmung der Südhemisphäre und deren Führungsrolle über die Temperatur der Nordhemisphäre; der darauf folgende CO2-Anstieg bedeutete die kritische Rückkopplung der globalen Deglaziation.

In dieser Studie gibt es die folgenden GCM-Simulationen:

• ORB (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen der orbitalen Konfiguration

• GHG (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen atmosphärischer Treibhausgas-Konzentrationen

• MOC (vor 19.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen von Schmelzwasserflüssen aus den Eisschilden der Nordhemisphäre und der Antarktis

• ICE (vor 19.000 bis 14.300 Jahren), getrieben nur durch quasi-kurzlebige Variationen der Orographie der Eisschilde sowie deren Ausdehnung aufgrund der ICE-5G (VM12)-Rekonstruktion.

Und dann gibt es da die ALL-Simulation, also eine Kombination all dieser Antriebe. Das verwendete GCM ist CCSM3 (CCSM4, eine aktualisierte Version von CCSM3, haben wir bereits im Part X – GCM IV dieser Reihe kennen gelernt). Der Idee dieser Studie ist es, ein paar Kernfragen zu beantworten. Eine davon lautet: Falls Änderungen der solaren Einstrahlung in hohen Breiten der Nordhemisphäre der Schlüssel zum Verständnis von Eiszeiten sind, warum hat sich dann die Südhemisphäre zuerst erwärmt? (Um diese Frage war es auch in Shakun et al. 2012 gegangen). Eine weitere Absicht dieses papers ist es, den tatsächlichen Temperaturanstieg während der jüngsten Deglaziation sowohl in der Nord- als auch in der Südhemisphäre nachzuvollziehen und zu simulieren.

Schauen wir mal.

Ihre erste Abbildung ist etwas schwierig zu lesen, aber die Essenz ist, dass blau das Modell mit ausschließlich orbitalem Antrieb (ORB) ist. Rot ist das Modell mit ALLEN Antrieben, und schwarz ist die Proxy-Rekonstruktion der Temperatur (an verschiedenen Stellen).

Bildinschrift: a. Einstrahlung am 21. Juni auf 60°N und atmosphärische CO2-Konzentration.. b. Eustatischer Meeresspiegel. Zeitfehler-Balken ± 2s.d. c. Schmelzwasserflüsse der Nordhemisphäre (NHMW) in Metern pro Anstieg des Meeresspiegels in 1000 Jahren. d. Verhältnis Pa/Th bei Bermuda als Proxy für den AMOC-Export und Modell-Maximum des AMOC-Transports (unter 500 m). Sv Sverdrup (…) e. Grönland-SAT auf der Grundlage des GISP2-Eisbohrkerns und aus Simulationen (Modell-Offset durch -4,5°C) f bis i Regionale Wassertemperaturen im Südatlantik (f), dem Indischen Ozean (g), dem Südpazifik (h) und dem Ozean der Südhemisphäre (i). J Regionale SAT über der Antarktis. In d bis j: Schwarz: Rekonstruktion, Rot: Simulation ALL, blau: Simulation ORB (10-Jahres-Mittel). LGM = letztes glaziales Maximum. (Aus He et al. 2013, Abbildung 2).

Wir können sehen, dass der orbitale Antrieb allein fast keinen Einfluss auf irgendeinen der Haupt-Temperatur-Parameter hat, und wir können sehen, dass es in Grönland und der Antarktis unterschiedliche Temperaturverläufe in dieser Periode gab.

• Wir können sehen, dass ihr ALL-Modell vernünftig gearbeitet hat bei der Rekonstruktion der wesentlichen Temperaturtrends.

• Wir können auch sehen, dass es kaum die Temperatur-Fluktuationen im Zeitmaßstab von Jahrhunderten bis zu einem Jahrtausend abbilden konnte, wenn diese auftraten.

Als Beleg folgt hier die Grönland-Aufzeichnung aus NGRIP von vor 20.000 bis 10.000 Jahren:


Abbildung 3: – NGRIP data

Wir erkennen, dass die Haupterwärmung in Grönland (zumindest an dieser Stelle in Nordgrönland) vor etwa 15.000 Jahren erfolgt ist, während die Antarktis schon vor 18.000 Jahren eine signifikante Erwärmung erfuhr (vergleiche Abbildung 1 aus Shakun et al.). Das paper zeigt im Grunde, dass es infolge von zwei separaten Effekten zwei wesentliche Temperaturtrends erfassen kann:

1. Die „Abkühlung“ in Grönland von vor 19.000 bis 17.000 Jahren mit einer Erwärmung der Antarktis im gleichen Zeitraum – wegen der MOC.

2. Die fortgesetzte Erwärmung von vor 17.000 bis 15.000 Jahren in beiden Regionen infolge von Treibhausgasen.

Man beachte, dass meine eigenen NGRIP-Daten und ihre GISP-Daten einen unterschiedlichen Temperaturtrend zeigen, und ich weiß nicht warum. Zum Verständnis dessen, was das Modell zeigt – diese Daten stammen aus ihren Ergänzungs-Daten, gefunden auf der Website von Nature: Vor 19.000 bis 17.000 Jahren gab es in der Antarktis (AN) eine signifikante Erwärmung, während es in Grönland (GI) zu einer größeren Abkühlung gekommen war von vor 17.300 und 16.700 Jahren.

Bildinschrift: Abbildung S25: genau wie Abbildung 59, nur diesmal mit Temperaturänderungen von vor 19.000 und 17.000 Jahren. SAT-Unterschiede und deren Unsicherheiten (eine Standardabweichung) werden abgeleitet von vor 17.300 bis 16.700 Jahren für 17.000 Jahre; vor 19.300 und 18.700 Jahren für 19.000 Jahre für Proxies und die Simulationen ALL, ORB und GHG sowie zwischen vor 19.000 und 18.400 Jahren für 19.000 Jahre für die Simulationen ICE, MOC und SUM. Alle Modellvariablen sind jährliche Mittelwerte (Abbildung 4).

Man beachte, dass die MOC (gelb) die Simulation ist, die die Änderung sowohl in GI als auch in AN erzeugt. (SUM sind die addierten Werte der individuellen Läufe, während ALL die Simulation mit der Kombination aller Treiber ist). Zweitens, vor 17.000 bis 15.000 Jahren setzt sich die Erwärmung in der Antarktis fort, und auch in Grönland wird es wärmer:

Bildinschrift: Abbildung S27: Wie Abbildung 59, jedoch für Temperaturänderungen von vor 17.000 bis 15.000 Jahren. SAT Differenzen und ihre Unsicherheiten (1 Standardabweichung) sind zwischen 17.300 und 16.700 Jahre vh. für 17.000 Jahre und für 14.700 für 15.000 Jahre abgeleitet. Alle Variablen wieder Jahresmittelwerte (Abbildung 5).

Man beachte, dass GHG (rosa) jetzt die Hauptursache für die Temperaturanstiege ist. Wir können die Temperaturtrends mit der Zeit als einen besseren Weg darstellen. Ich habe einige Anmerkungen hinzugefügt, weil das Layout sich mir nicht sofort erschlossen hat:

Bildinschrift: Abbildung 3: frühe deglaziale Erwärmung in Einzelantriebs-Transient-Simulationen. a-c. Grönland SAT (GISP2) (a), SHSST stack (b) und antarktischer SAT stack (c) in Simulation ORB. d-o, wie für a-c, aber für Simualtion ICE (d-f), GHC (g-i), MOC (j-l) und ALL/SUM (m-o). Alle Variablen in 10-Jahresmittel. Proxy reconstruktionen in schwarz. In a-l Simulationen in rot. In m-o Simulation ALL in rot und Simulation SUM in blau. LGM, Letztes glaziales Maximum (Abbildung 6).

Wie in Abbildung 1 können wir auch hier sehen, dass die Haupttrends ziemlich gut simuliert wurden, ohne das aber das Modell Variationen in kürzeren Zeiträumen erfassen konnte.

Die MOC kurz erklärt: Die MOC bringt warmes Oberflächen-Wasser aus den Tropen in hohe nördliche Breiten, die sich in der Folge erwärmen. Das kalte Wasser fließt in der Tiefe zurück, was eine wirklich große Zirkulation bildet. Wird diese Zirkulation gestört, fließt mehr warmes Wasser zur Antarktis und wärmt diese (Die Antarktis weist eine ähnliche großräumige Zirkulation von den Tropen an der Oberfläche und einem kalten Rückfluss in der Tiefe auf), während sich das Nordpolargebiet abkühlt. Man nennt dies die bipolare Wippe.

Wenn man ein extrem großes Fass Süßwasser in den hohen Breiten auskippt, verlangsamt sich die MOC oder kommt ganz zum Stillstand. Dies liegt an der geringeren Dichte des Süßwassers, das nicht absinken kann, was die Zirkulation verlangsamt. Kommt es also in hohen nördlichen Breiten zu massivem Abschmelzen, fließt Süßwasser in den Ozean, was die MOC verlangsamt und die hohen nördlichen Breiten abkühlt, während sich die Antarktis erwärmt. Das jedenfalls zeigen ihre Modelle. Die verfügbaren Daten hinsichtlich der MOC stützen diesen Gedanken; hier folgt Teil d aus ihrer Abbildung 1 – die schwarze Linie kennzeichnet die Proxy-Rekonstruktion:

 

Abbildung 7: Die Einheiten links sind Volumen-Raten des zwischen den Tropen und hohen nördlichen Breiten fließenden Wassers.

Was hat der orbitale Antrieb in den Modellen bewirkt?

Falls wir nochmals ihre Abbildung 1 (unsere Abbildung 2) betrachten, erkennen wir in nichts eine Änderung als Ergebnis der ORB-Simulation. Das Abstract scheint also etwas verwirrend zu sein, wenn ihre Studie zeigt, dass Einstrahlung, sprich die Milankovitch-Theorie, das ist, was die ganze Kette der Ereignisse auslöst. In ihrer Abbildung 2 zeigen sie eine geographische Ansicht der sommerlichen Temperaturänderungen in hohen Breiten und den Polargebieten als Ergebnis der ORB-Simulation. Die initiale Zunahme der Einstrahlung im Frühjahr und Sommer in den mittleren und hohen Breiten der Nordhemisphäre vor 22.000 und 19.000 Jahren war etwa dreimal so hoch wie in der Südhemisphäre (Abbildungen 2a und 2b). Außerdem führt die Abnahme der Oberflächen-Albedo durch das Schmelzen von Schnee auf dem Festland in der Nordhemisphäre zu zusätzlicher Gesamt-Absorption der Sonneneinstrahlung in der NH. Als Konsequenz werden die Sommer der Nordhemisphäre in der ORB-Simulation in der Arktis bis zu 2°C wärmer und bis zu 4°C wärmer in Eurasien, mit einem Gesamt-Mittelwert in der NH von 0,9°C in mittleren und hohen Breiten (Abbildungen 2c und 2e).

In ihrem Modell betrifft dies nicht Grönland (aus mir unverständlichen Gründen). Sie behaupten:

Unsere ORB-Simulation stützt folglich die Milankovitch-Theorie, zeigt sie doch, dass eine substantielle sommerliche Erwärmung in der NH zum Ende des Letzten Glazialen Maximums erfolgte als ein Ergebnis der größeren Einstrahlung im Frühjahr und Sommer in mittleren und hohen Breiten der NH sowie einer größeren Sensitivität der von Landmassen dominierten hohen nördlichen Breiten für den Antrieb durch Einstrahlung aus Schnee-Albedo-Rückkopplungen. Diese orbital induzierte Erwärmung löste möglicherweise den Rückzug der Eisschilde auf der NH aus und half, den Rückzug beizubehalten während des ältesten Dryas.

Analyse

1.Wenn wir die gleiche orbitale Simulation vor 104.000, 83.000 oder 67.000 Jahren laufen lassen (oder auch ein paar anderen Zeiten) – was würden wir bekommen? Hier folgen die Änderungen der Einstrahlung auf 60°N von vor 130.000 Jahren bis heute:

Abbildung 8.

Es ist keineswegs klar, was an dem Zeitraum von vor 21.000 bis 18.000 Jahren hinsichtlich der Einstrahlung so besonders ist. Es ist keine Überraschung, dass ein GCM einen lokalen Temperaturanstieg erzeugt, wenn lokal die Einstrahlung zunimmt.

2. Der in das Modell eingebrachte Schmelzwasser-Impuls ist nicht abgeleitet aus einer Berechnung irgendeiner Eisschmelze als Folge gestiegener Sommertemperaturen über Eisschilden, sondern ein künstlich angebrachter Antrieb. Unter der Bedingung, dass die Eisschmelze die MOC verlangsamt und daher die Temperatur in hohen Breiten abnimmt, sollte die MOC als eine negative Rückkopplung auf jedes Schmelzen von Schnee und Eis agieren.

3. Die Studie von Smith und Gregory (2012) [SG 2012], die wir in Teil IX besprochen haben, zeigt vielleicht andere Auswirkungen durch individuelle Antriebe als jene bei He et al. Weil der Zeitraum von vor 20.000 bis 15.000 Jahren bei Smith und Gregory etwas komprimiert ist, bin ich da nicht sicher. Man betrachte beispielsweise die Auswirkung allein auf Eisschilde während dieser Periode. Bei SG2012 zeigt sich ein deutlicher Effekt (gelb) über Grönland; bei He et al. zeigt sich gar nichts (Abbildung 6 oben)

 

Bildinschrift: Temperaturunterschiede in der Ostantarktis (oben) und Grönland (unten) zur präindustriellen Zeit (Aus Smith & Gregory 2012, Abbildung 9).

Schlussfolgerung

Es ist eine interessante Studie, die zeigt, dass Änderungen der großräumigen Meeresströme zwischen den Tropen und den Polen (die MOC) als Ursache für eine Abkühlung in Grönland und eine Erwärmung in der Antarktis in Frage kommt, was in etwa auf einer Linie mit den Proxy-Aufzeichnungen liegt. Die meisten Beweislinien zeigen, dass ein großräumiges Abschmelzen von Eis ein Faktor ist, der die MOC unterbricht.

Vielleicht waren es Änderungen der Einstrahlung in hohen Breiten, die vor etwa 20.000 Jahren zu einer massive Eisschmelze führten, was die MOC verlangsamte, was wiederum die Antarktis erwärmte, was (durch unbekannte Prozesse) zu einer starken CO2-Zunahme mit einer positiven Rückkopplung auf den Temperaturanstieg und damit dem Ende der letzten Eiszeit führte. Vielleicht nahm das CO2 gleichzeitig mit der Temperatur in der Antarktis zu (siehe den kurzen Abschnitt zur Studie von Parrenin et al. (2013) in Teil XI, was zu der Frage nach Ursache und Wirkung führt.

Um über Klima sinnvoll zu reden, müssen wir verstehen, warum:

a) höhere Einstrahlung in hohen Breiten zuvor nicht zur gleichen Abfolge der Ereignisse geführt hat

b) frühere Temperaturänderungen in der Antarktis nicht die gleiche Abfolge der Ereignisse ausgelöst haben

c)  die in der ORB-Simulation erzeugten Temperaturänderungen ausreichen, um genug Eis schmelzen zu lassen, um die MOC zu verändern (und welche Rückkopplungen dabei auftreten)

Und natürlich müssen wir verstehen, warum das CO2 zum Ende der letzten Eiszeit so stark zugenommen hat.

Link: http://scienceofdoom.com/2014/01/16/ghosts-of-climates-past-twelve-gcm-v-ice-age-termination/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/




Das Rätsel der Eiszeiten – Teil XI: Das Ende der letzten Eiszeit

scienceofdoom

In den letzten Artikeln haben wir zumeist die Modelle hinsichtlich der Auslösung der letzten Eiszeit betrachtet. In Teil sieben haben wir dazu einige frühe GCMs (GCM = global circulation model) betrachtet – Ende der achtziger bis Mitte der neunziger Jahre. In Teil acht ging es um vier verschiedene Studien vor etwa einem Jahrzehnt. In Teil neun ging es um eine Studie, die die letzten 120.000 Jahre simuliert hat, und Teil zehn befasste sich mit einer der jüngsten Studien der Auslösung einer Vereisung vor 115.000 Jahren mittels des letzten Klimamodells CCSM4.

Wir werden zum Mechanismus der Auslösung einer Eiszeit wieder zurückkehren, aber in diesem Beitrag wollen wir das Ende der letzten Eiszeit betrachten. Dies teils deswegen, weil jemand auf einem anderen Blog eine sich damit befassende Studie vorstellte und ich daraufhin einige Zeit damit zubrachte, diese Studie zu verstehen. Aus den letzten 20.000 Jahren gibt es einige exzellente Aufzeichnungen aus beiden Polargebieten. Das vor etwa 20 Jahren initiierte EPICA-Projekt erbrachte Daten aus Eisbohrkernen der Antarktis, die man mit den NGRIP-Daten aus Eisbohrkernen Grönlands vergleichen konnte, die etwa 800.000 Jahre zurückreichen. Aus anderen Forschungsprojekten standen zusätzliche Proxy-Daten aus der ganzen Welt zur Verfügung.

Shakun et al. 2012

Die Studie stammt von Shakun et al. 2012. Randbemerkung: Eine der Ko-Autoren war Bette Otto-Bliesner, ebenso wie für Jochum et al. 2012. Diese Studie haben wir in Teil zehn unter die Lupe genommen. Bette Otto-Bliesner ist eine der Leitautoren des IPCC-AR 5 im Abschnitt über Paläoklima.

Das letzte glaziale Maximum (LGM) ereignete sich vor etwa 22.000 bis 18.000 Jahren. Der Meeresspiegel lag damals 120 m niedriger als heute, weil dicke Eisschilde Teile von Nordamerika und Europa überdeckten. Warum und wie ist diese Zeit zu Ende gegangen? In der Studie geht es im Wesentlichen um die zweite Frage nach dem "wie". Die obere Kurve in der folgenden Abbildung zeigt die Temperaturen der Antarktis in rot, das CO2 in gelben Punkten und die globalen Temperaturen in blau:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das älteste Dryas (OD) und das letzte Glaziale Maximum (LGM). Fehlerbalken, 1 sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1 sigma-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle.

Die zweite Graphik zeigt uns das Histogramm von CO2-Änderungen in Bezug auf die Temperatur sowohl für die Antarktis als auch global. Man erkennt deutlich, dass die Temperaturen der Antarktis vor etwa 18.000 Jahren nachhaltig zu steigen begannen – vor den globalen Temperaturen. Wir können erkennen, dass die CO2 Konzentration geringfügig den antarktischen Temperaturen vorausgelaufen oder mit dieser synchron verlaufen ist. Dies zeigt, dass die CO2-Zunahme hier eine positive Rückkopplung auf den ursprünglichen antarktischen Temperaturanstieg hatte (grundlegender Physik zufolge steigt durch mehr CO2 der Strahlungsantrieb in der Troposphäre an – siehe Anmerkung 1).

Aber was war die Ursache für diesen initialen Anstieg der antarktischen Temperaturen? Eine ins Spiel gebrachte Möglichkeit ist ein vorausgegangener Temperaturanstieg in höheren nördlichen Breiten, den man in der zweiten Graphik der folgenden Abbildung erkennt:

 

Bildinschrift: Temperaturänderung vor Zunahme der CO2-Konzentration. a: Lineare Temperaturtrends in den Proxy-Aufzeichnungen von vor 21.500 bis 19.000 Jahren (rot) sowie von vor 19.000 bis 17.500 Jahren (blau), gemittelt über Streifen von 10° Breite mit Unsicherheiten von 1 sigma. b: Proxy-Temperaturblöcke für Streifen von 30° Breite mit Unsicherheiten von 1 sigma. Die Blöcke wurden durch die Glazial-Interglazial-Bandbreite (G-IG) in jeder Zeitreihe normalisiert, um Vergleiche zu ermöglichen.

Shagun et al. führen aus: „Eine wichtige Ausnahme ist das Einsetzen des Abschmelzens, das aufgrund einer globalen Erwärmung von etwa 0,3°C erfolgte vor der initialen Zunahme des CO2-Gehaltes vor 17.500 Jahren. Dieses Ergebnis zeigt, dass das CO2 nicht der Grund für die initiale Erwärmung war. Substantielle Temperaturänderungen in allen Breiten (Figure 5b) laufen der CO2-Zunahme vor 17.500 Jahren voraus. Dies zeigt, dass CO2 nicht als Auslöser des Abschmelz-Beginns in Frage kommt. Diese frühe globale Erwärmung erfolgte in zwei Phasen: einer graduellen Zunahme vor 21.500 bis 19.000 Jahren, gefolgt von einer stärkeren Zunahme vor 19.000 bis 17.500 Jahren (Figure 2a). Die erste Zunahme hängt mit einer Erwärmung der nördlichen mittleren und hohen Breiten zusammen, am deutlichsten in Grönland, gibt es doch anderswo zu dieser Zeit nur geringe Änderungen (Figure 5) Die zweite Zunahme ereignete sich während eines ausgeprägten interhemisphärischen Wipp-Ereignisses (Figure 5), möglicherweise verbunden mit einer Abnahme der AMOC-Stärke (Anm. der Redaktion: AMOC = Atlantic Meridional Overturning Circulation), wie man in der Pa/Th-Aufzeichnung (Anm. der Redaktion: Pa ist das Proactinium-Isotop 231Pa, Th ist das Thoriumisotop 230Th, die für die Altersbestimmung verwendet werden) und unserer Modellierung sieht (nachfolgend Figure 4f, g)…… In jedem Falle zeigen wir, dass diese räumlich-zeitlichen Verteilungen der Temperaturänderung konsistent sind mit einer Erwärmung in mittleren und hohen nördlichen Breiten. Dies führte zu einer Reduktion der AMOC vor etwa 19.000 Jahren und war der Auslöser für die darauf folgende globale Abschmelz-Erwärmung. Allerdings braucht man noch weitere Aufzeichnungen, um Ausdehnung und Größenordnung der frühen Erwärmung in diesen Breiten zu stützen“. So weit Shagun et al.

Die hier erwähnte interhemisphärische Wippe ist wichtig für das Verständnis und bezieht sich auf die Beziehung zwischen zwei großräumigen Meeresströmungen – zwischen den Tropen und den hohen nördlichen Breiten einerseits sowie den Tropen und der Antarktis andererseits. Dann wird von den Autoren ein „plausibles Szenario” für die initiale Erwärmung der Nordhemisphäre wie folgt präsentiert:

Ein mögliches Antriebs-Modell zur Erklärung dieses Teils der Ereignisse beginnt mit steigender borealer sommerlicher Einstrahlung, die die Erwärmung im Norden auslöst. Dies führt zu dem beobachteten Rückzug der nordhemisphärischen Eisschilde und dem Beginn des Anstiegs des Meeresspiegels vor etwa 19.000 Jahren (Fig. 3a, b) mit dem begleitenden Süßwasser-Antrieb, welcher zu einer Abnahme der AMOC führte, die die Südhemisphäre erwärmte via der bipolaren Wippe.

Dies ist ein recht schwacher Abschnitt in dieser Studie. Ich finde es seltsam, dass jemand dies schreibt und nicht im Mindesten auf die offensichtlichen Fehler darin hinweist. Bevor ich dies ausführe, müssen zwei Punkte angesprochen werden:

1. Der in Rede stehende Mechanismus wird beschrieben als ein „mögliches Antriebs-Modell“ und ist nicht wirklich Gegenstand der Studie und wird auch offenbar nicht durch irgendwelche Beweise in der Studie gestützt.

2. Ihre Modellläufe, obige Figure 4c stützen die Hypothese nicht – sie zeigen Temperaturen der Nordhemisphäre mit einem zu jener kritischen Periode abwärts gerichteten Trend. Man vergleiche die obige Fig. 4b und 4c (b sind Proxy-Daten, C ist das Modell). Allerdings stellen sie nicht die höheren Breiten heraus; vielleicht hat also ihr Modell dieses Ergebnis gezeigt.

Der offen liegende Kritikpunkt an dieser Hypothese ist, dass die Einstrahlung (Sommer, bei 65°N) während früherer Perioden sehr viel stärker war:

Abbildung 4

Wir haben dies gesehen bei Ghosts of Climates Past – Pop Quiz: End of An Ice Age (Anm. der Redaktion: diesen Teil bitte im Original naclesen).

Auch wurden während der letzten Eiszeit frühere Perioden signifikanter Temperaturanstiege in hohen nördlichen Breiten aufgezeichnet. Warum war keiner davon in der Lage, die gleiche Folge von Ereignissen und einen antarktischen Temperaturanstieg auszulösen?

Zur Zeit der LGM wiesen die Eisschilde ihre größte Ausdehnung auf mit der positiven Rückkopplung einer höheren Albedo als Konsequenz. Falls eine geringe Zunahme der sommerlichen Einstrahlung in hohen nördlichen Breiten Abschmelzen auslösen kann, würde sicher die viel höhere sommerliche Einstrahlung vor 100.000 oder 82.000 Jahren ein Abschmelzen ausgelöst haben unter der Voraussetzung des zusätzlichen Vorteils der geringeren Albedo zu der Zeit. Bei der Fertigstellung dieses Abschnitts schaute ich noch einmal auf die Website von Nature, um zu sehen, ob es dort irgendwelche Zusatzinformationen gibt (Nature-Studien sind kurz, und Online-Material, das in der PDF nicht auftaucht, kann sehr nützlich sein). Es gab einen Link zu der Site News & Views zu dieser Studie von Eric Wolff. Eric Wolff ist einer der wichtigsten Beitragenden zu EPICA, Leitautor und Mitautor vieler EPICA-Studien. Daher schien es mir sinnvoll, seine Perspektive zu dieser Studie zu lesen. Viele Leute scheinen nämlich davon überzeugt zu sein, dass die Milankovitch-Theorie richtig sei  und sie nicht zu akzeptieren absurd ist. Siehe zum Beispiel die von mir zuvor schon einmal erwähnte Blog- Diskussion. Es ist also angebracht, ausführlich aus Wolffs kurzem Artikel zu zitieren:

In der Zeit von vor 19.000 bis 10.000 Jahren kam die Erde aus der letzten Vereisungsperiode. Der gesamte Globus erwärmte sich, Eisschilde zogen sich von den Nordkontinenten zurück, und die Zusammensetzung der Atmosphäre änderte sich signifikant. Viele Theorien versuchen zu erklären, was diese Transformation ausgelöst und am Leben gehalten hat, aber es fehlen belastbare Beweise, diese Theorien zu validieren.

Auf Seite 49 dieser Ausgabe verwenden Shakun et al. eine globale Rekonstruktion der Temperatur um zu zeigen, dass der Übergang von der Eiszeit in die derzeitige Zwischeneiszeit von einer gegenphasigen Temperaturentwicklung der beiden Hemisphären der Erde gekennzeichnet war, die einer kohärenten Erwärmung überlagert war. Änderungen der Meeresströme, die die gegensätzliche Reaktion in jeder Hemisphäre kontrollieren, scheinen für das Ende der Eiszeit mit ausschlaggebend gewesen zu sein.

Wieder einmal hat ein führender Klimawissenschaftler angemerkt, dass wir nicht wissen, warum die letzte Eiszeit zu Ende gegangen ist. Wie wir in Teil VI – “Hypotheses Abound” gesehen haben, erklärt der Titel den Inhalt:

Einige Studien haben zur Diskussion gestellt, dass Änderungen des ozeanischen Wärmetransportes ein wesentlicher Teil zur Beendigung einer Eiszeit sind. Shakun et al. kombinieren ihre Daten mit Simulationen auf der Grundlage eines Ozean-Atmosphäre-Modells, um eine plausible Abfolge der Ereignisse seit der Zeit vor etwa 19.000 Jahren zu präsentieren. Sie meinen, dass eine Reduktion der AMOC (im Modell induziert durch den Eintrag von Süßwasser in den Nordatlantik) zur Erwärmung der Südhemisphäre und einer insgesamten Abkühlung der Nordhemisphäre geführt hat. Die Kohlendioxidkonzentration begann bald danach zu steigen, möglicherweise durch Ausgasen aus den Tiefen des südlichen Ozeans. Obwohl sie ziemlich gut dokumentiert ist, bleibt die genaue Kombination der Mechanismen für diesen Anstieg fraglich. Danach erwärmten sich beide Hemisphären gleichlaufend, hauptsächlich als Reaktion auf den Anstieg des Kohlendioxidgehaltes, jedoch mit weiteren Oszillationen auf Grund des hemisphärischen Kontrastes mit Variation der Stärke der AMOC. Das Modell reproduziert sehr gut die Größenordnung und die Verteilung der globalen und hemisphärischen Änderungen mit dem sich ändernden Kohlendioxid und der sich ändernden AMOC als grundlegenden Komponenten.

Der Erfolg des von Shakun und Kollegen verwendeten Modells bei der Reproduktion der Daten ist ermutigend. Aber eine Schwäche ist, dass die Größenordnung des Süßwasser-Eintrags in den Atlantik im Modell adjustiert worden ist, um die abgeleitete Stärke der AMOC und die Größenordnung  der interhemisphärischen Klimareaktion zu erzeugen. Das Ergebnis impliziert nicht, dass die Ozean-Zirkulation in dem Modell die korrekte Sensitivität hinsichtlich der Menge des Süßwasser-Eintrags aufweist.

Die Arbeit von Shakun und Kollegen bietet eine solide, auf Daten basierende Grundlage für eine plausible Kette der Ereignisse während der meisten Zeit, in der die Eiszeit endete. Aber was führte zu der Reduktion in der AMOC vor 19.000 Jahren? Die Autoren verweisen darauf, dass in der Zeit von vor 21.500 und 19.000 Jahren die Temperatur im nördlichsten Breitenband (60°N bis 90°N) signifikant gestiegen war. Sie folgern, dass dies Folge einer Steigerung der sommerlichen Einstrahlung in hohen nördlichen Breiten ist (einfallende Solarstrahlung), getrieben von den gut bekannten Zyklen der Erdumlaufbahn um die Sonne. Sie argumentieren, dass dieser Anstieg zu einem auslösenden Schmelzen von Eisschilden geführt hat, was nachfolgend die Reduktion der AMOC einleitete.

Allerdings muss diese Folgerung mit Vorsicht betrachtet werden. Erstens gibt es nur sehr wenige Temperaturaufzeichnungen in diesem Breitenbereich: Die Erwärmung ist nur in Eisbohrkernen aus Grönland klar erkennbar.

Zweitens, es gibt mindestens einen vergleichbaren Temperaturanstieg in den Grönland-Eisbohrkernen, und zwar in der Zeit von vor 62.000 und 60.000 Jahren, der nicht zum Ende der Eiszeit geführt hat. Und schließlich, obwohl es stimmt, dass die sommerliche Einstrahlung im Norden von vor 21.500 und 19.000 Jahren zugenommen hat, blieb deren absolute Größenordnung geringer als zu irgendeiner Zeit von vor 65.000 und 30.000 Jahren. Es ist völlig unklar, warum eine Zunahme der Einstrahlung von einem niedrigen Wert das Ende der Eiszeit ausgelöst haben soll, während eine anhaltende Periode höherer Einstrahlung dies nicht bewirkt hat.

Kurz gesagt, man braucht eine weitere Zutat, um die Verbindung zwischen Einstrahlung und Eiszeit-Ende zu erklären – ebenso wie die Auslöser der Serie von Ereignissen, die so gut in der Studie von Shakun und Kollegen beschrieben worden sind. Die Schaukelei der Temperatur zwischen Nord und Süd während der gesamten Vereisungsperiode, die am klarsten in rapiden Erwärmungen Grönlands zum Ausdruck kommt (Dansgaard-Oeschger-Ereignisse), wird oftmals als Signal verstanden, dass es in der AMOC zahlreiche Änderungen der Stärke gegeben hat. Allerdings dauerte die Schwächung in der AMOC, die vor 19.000 Jahren eingesetzt hatte, viel länger als derartige Schwächungen zuvor, was einen viel substantielleren Anstieg der südlichen Temperatur und der Kohlendioxid-Konzentration ermöglicht hatte. Warum war es zu jener Zeit so schwierig, die AMOC neu zu beleben und deren Schwäche zu beenden?

Und was könnte die fehlende Zutat sein, die den Anstieg der Einstrahlung im Norden vor etwa 20.000 Jahren in den Auslöser der Deglaziation verwandelt hatte, wenn eine stärkere Einstrahlung in früheren Zeiten dies nicht vermocht hat? Es wurde in die Diskussion geworfen, dass eine Eiszeit nur zu Ende geht, wenn die Eisschilde im Norden besonders groß sind. Falls dies wirklich die zusätzliche Zutat ist, dann muss der nächste Schritt zum Verständnis der Kausalkette darin bestehen zu verstehen, welcher Aspekt der großen Eisschilde das Einsetzen und die Persistenz der AMOC kontrolliert, die anscheinend das Schlüsselelement der letzten Deglaziation war.

Danke, Eric Wolff. Meine Zusammenfassung von Shakun et al. hinsichtlich ihres zentralen Themas: es ist eine sehr gute Studie mit soliden neuen Daten, guten Erklärungen und Graphiken. Allerdings ist in diesem Bereich alles noch im Fluss.

Parrenin et al 2013

Parrenin et al. schreiben:

Das Verständnis der Rolle des atmosphärischen CO2-Gehaltes während vergangener Klimaänderungen erfordert genaue Kenntnisse darüber, wie der Gehalt relativ zur Temperatur mit der Zeit variiert. Antarktische Eisbohrkerne konservieren hoch aufgelöste Aufzeichnungen des atmosphärischen CO2-Gehaltes sowie die Temperatur in der Antarktis während der letzten 800.000 Jahre.

Hier zeigen wir eine überarbeitete relative Zeitskala für die Konzentration von CO2 in der Atmosphäre sowie die antarktische Temperatur während der letzten Erwärmung mit schrumpfenden Gletschern, und zwar mittels Daten aus fünf antarktischen Eisbohrkernen. Wir leiten die Synchronisierung zwischen CO2-Konzentration und antarktischer Temperatur zu vier verschiedenen Zeiten ab, als sich deren Trends abrupt änderten.

Wir finden keine signifikante Asynchronizität zwischen ihnen. Das zeigt, dass die antarktische Temperatur nicht hunderte Jahre begonnen hat zu steigen vor [dem Anstieg der] atmosphärischen CO2-Konzentration, wie es in früheren Studien gezeigt worden ist.

Aua! In einem späteren Artikel werden wir in die komplexe Welt der Datierung von Eiskernen und der darin eingeschlossenen Luftbläschen eintauchen.

WAIS Divide Project Members (2013)

Die Ursache für die Erwärmung der Südhemisphäre während der jüngsten Deglaziation bleibt Gegenstand der Diskussion. Hypothesen eines Auslösers auf der Nordhemisphäre durch ozeanische Umverteilungen basieren teilweise auf dem abrupten Einsetzen einer Erwärmung, die in den Eiskernen der Ostantarktis erkennbar ist und sich auf vor 18.000 Jahren datieren lässt. Diese fand mehrere tausend Jahre statt, nachdem die sommerliche Einstrahlung in hohen nördlichen Breiten zuzunehmen begonnen hatte vor etwa 24.000 Jahren.

Eine alternative Erklärung lautet, dass lokale Änderungen der solaren Einstrahlung die Erwärmung der Südhemisphäre unabhängig verursachen. Hier präsentieren wir Ergebnisse eines neuen, jährlich aufgelösten Eisbohrkerns aus der Westantarktis, die diese beiden Ansichten in Einklang bringen. Die Aufzeichnungen zeigen, dass die Schnee-Akkumulation in der Westantarktis vor 18.000 Jahren angefangen hat zuzunehmen, was mit steigenden Kohlendioxid-Konzentrationen, einer Erwärmung der Ostantarktis und einer Abkühlung der Nordhemisphäre zusammenfällt, verbunden mit einer abrupten Abnahme der AMOC. Allerdings begann eine signifikante Erwärmung in der Westantarktis bereits mindestens 2000 Jahre früher.

Abnehmendes Meereis rund um die Antarktis, getrieben durch zunehmende lokale Einstrahlung, ist der wahrscheinliche Grund für diese Erwärmung. Die maritim beeinflussten Aufzeichnungen aus der Westantarktis zeigen eine aktivere Rolle des Südlichen Ozeans beim Einsetzen der Deglaziation, als es aus Eisbohrkernen der Ostantarktis hervorgeht, die weitgehend isoliert sind von Änderungen des Meereises.

Wir erkennen daran, dass „zunehmende solare Einstrahlung” in irgendeinem Teil der Welt mit irgendeinem Wert als eine Hypothese für das Ende einer Eiszeit präsentiert werden kann. „Lokale solare Einstrahlung“ bedeutet hier die solare Einstrahlung im Gebiet der Antarktis. Man vergleiche dies mit Shakun et al., dem zufolge zunehmende Einstrahlung (von einem sehr niedrigen Wert) in hohen nördlichen Breiten als Hypothese einer Erwärmung im Norden präsentiert wurde, die dann eine Erwärmung im Süden initiiert hat.

Das WAIS Projekt ist eine sehr interessante Studie mit neuen Daten aus der Antarktis, dem westantarktischen Eisschild WAIS, wo die Bohrung im Jahre 2011 abgeschlossen worden ist. In diesem Projekt ist zu lesen:

Weil das Klima der Westantarktis ein anderes ist als im Inneren der Ostantarktis kann der Ausschluss westantarktischer Aufzeichnungen zu einem unvollständigen Bild von Klimaänderungen der Vergangenheit in der Antarktis und im Südlichen Ozean führen. Das Innere der Westantarktis liegt tiefer und ist viel stärker von maritimen Luftmassen beeinflusst als das Innere der Ostantarktis, die umgeben ist von steilen Berghängen. Maritim beeinflusste Örtlichkeiten sind von Bedeutung, weil sie direkter atmosphärische Bedingungen reflektieren, die aus Änderungen der Meeresströme und des Meereises resultieren. Eisbohrkern-Aufzeichnungen an Küsten sind allerdings oft schwierig zu interpretieren infolge der komplizierten Eisflüsse und der Geschichte der Höhe über dem Meeresspiegel.

Der Ort des Eisbohrkerns WAIS-WDX in der zentralen Westantarktis ist einmalig, liegt er doch in einem Gebiet mit sehr geringer Änderung der Seehöhe. Er ist stark beeinflusst von maritimen Bedingungen und weist eine relativ hohe Schnee-Akkumulationsrate auf. Das ermöglicht die Gewinnung genau datierter Aufzeichnungen mit hoher zeitlicher Auflösung.

WDC zeichnet wie folgt ein etwas anderes Bild als die anderen antarktischen Eisbohrkerne:

"…und eine signifikante Erwärmung bei WDC begann vor 20.000 Jahren, etwa 2000 Jahre vor einer signifikanten Erwärmung bei EDML und EDC. Sowohl die WDC als auch der schwächer aufgelöste Byrd-Eisbohrkern zeigen, dass die Erwärmung in der Westantarktis vor Abnahme der AMOC begann, die ins Spiel gebracht worden ist, um die Erwärmung der Südhemisphäre zu erklären (unter den Literaturhinweisen fand sich auch Shakun et al. 2012). Die signifikanteste frühe Erwärmung bei WDC erfolgte in der Zeit von vor 20.000 bis 18.800 Jahren, obwohl es auch in der Zeit von vor 22.000 bis 21.500 Jahren zu einer signifikanten Erwärmung gekommen war. Die Größenordnung der Erwärmung bei WDC vor 18.000 Jahren ist viel größer als bei EDML oder EDC.

 

Bildinschrift Figure 1: antarktische Isotopen-Aufzeichnungen. Verhältnis von Wasserisotopen von neun antarktischen Eisbohrkernen. Eingefügt sind die Umrisse der Antarktis mit den Stellen, an denen die Bohrkerne entnommen worden sind: {es folgen die Namen} From WAIS Divide Project (2013)

Wir werden diese Studie in einem späteren Artikel detaillierter unter die Lupe nehmen.

Schlussfolgerung

Das Ende der letzten Eiszeit ist ein faszinierendes Thema, das unsere Fähigkeit herausfordert, Klimawandel zu verstehen. Eine Kritik an der Klimawissenschaft auf vielen Blogs lautet, dass Klimawissenschaftler von GCMs besessen seien anstatt sich mit „realer Wissenschaft“ zu befassen, „reale Experimente durchzuführen“ und „wirkliche Daten betrachten“. Ich kann nicht sagen wo das Gleichgewicht wirklich liegt, aber zumindest auf meiner eigenen Reise durch die Klimawissenschaft fand ich in der Tat, dass es eine willkommene und gesunde Besessenheit gibt, neue Datenquellen zu finden, Daten zu analysieren, Datensätze zu vergleichen und reale Experimente durchzuführen. Die Eisbohrkern-Projekte aus Grönland und der Antarktis wie NGRIP, EPICA und WAIS Divide Projekt sind dafür gute Beispiele.

In anderen Klimablogs scheinen Autoren und Kommentatoren sehr glücklich zu sein, dass Klimawissenschaftler eine Studie geschrieben haben, die „die orbitale Hypothese“ stützt, ohne jede kritische Untersuchung, welche Beweise diese Studie eigentlich stützen.

Kommen wir aber jetzt zu der Kernfrage dieses Artikels zurück, nämlich der nach der Beendigung der letzten Eiszeit. Das Problem ist derzeit wohl nicht so sehr das Fehlen einer Theorie, sondern vielmehr, dass die Datenflut noch nicht in eine klare Reihenfolge von Ursache und Wirkung gebracht werden konnte. Dies ist ganz offensichtlich essentiell, um eine vernünftige Theorie zu entwickeln. Und jede Theorie, die das Ende der letzten Eiszeit erklären kann, wird auch erklären müssen, warum es nicht früher dazu gekommen ist. Die Erwähnung „zunehmender Einstrahlung“ scheint mir eine Art fauler Journalismus zu sein. Zum Glück stimmt zumindest Eric Wolff mit mir darin überein.

Quellen

Global warming preceded by increasing carbon dioxide concentrations during the last deglaciation, Shakun, Clark, He, Marcott, Mix, Liu, Otto-Bliesner, Schmittner & Bard, Nature (2012) – free paper

Climate change: A tale of two hemispheres, Eric W. Wolff, Nature (2012)

Synchronous Change of Atmospheric CO2 and Antarctic Temperature During the Last Deglacial Warming, Parrenin, Masson-Delmotte, Köhler, Raynaud, Paillard, Schwander, Barbante, Landais, Wegner & Jouzel, Science (2013) – free paper, in submission form (rather than published form)

For interest  Valérie Masson-Delmotte is one of the two co-ordinating lead authors for AR5 for the Paleoclimate section, Frédéric Parrenin is a contributing author.

Onset of deglacial warming in West Antarctica driven by local orbital forcing, WAIS Divide Project Members, Nature (2013) – free paper

Anmerkungen

Note 1 – see for example, CO2 – An Insignificant Trace Gas? – an 8-part series on CO2, Atmospheric Radiation and the “Greenhouse” Effect – a 12-part series on how radiation interacts with the atmosphere, Visualizing Atmospheric Radiation – a 13-part series to help us get a better grasp of how this works including “does water vapor overwhelm CO2″, “is CO2 saturated” and many other questions.

Link: http://scienceofdoom.com/2014/01/09/ghosts-of-climates-past-eleven-end-of-the-last-ice-age/




Das Rätsel der Eiszeiten, Teil 9, Global Circulation Models III

scienceofdoom

In Teil VII haben wir auf einige frühe GCMs und deren Ergebnisse geschaut, in Teil VIII waren dann die GCMs aus dem ersten Jahrzehnt dieses Jahrhunderts dran – atmosphärische GCMs, die die Wassertemperatur der Ozeane einbezogen sowie einige Modelle mittlerer Komplexität. Alle diese Studien versuchten, die fundamentale Grundlage des Einsetzens einer Eiszeit zu untersuchen – immer währende Schneebedeckung in hohen Breiten. Eine permanente Schneebedeckung kann zu permanenten Eisschilden führen – muss es aber nicht. Erforderlich ist also ein Eisschilde-Modell, das das komplexe Zusammenspiel von Wachstum, Zerbrechen, Gleiten und Wärmetransport der Eisschilde simuliert.

Angesichts der begrenzten Rechenmöglichkeiten der Modelle war schon die Konstruktion eines Modells, dass die Grundlagen permanenter Schneebedeckung simulieren kann (oder nicht), keine triviale Angelegenheit, aber ein komplettes Ozean-Atmosphäre-GCM mit einem Eisschilde-Modell, das 130.000 Jahre abdeckt, war überhaupt nicht möglich. In diesem Beitrag schauen wir auf eine Studie aus jüngster Zeit, in der vollständig gekoppelte GCMs verwendet worden sind. ‚Vollständig gekoppelt‘ bedeutet, dass ein atmosphärisches und ein ozeanisches Modell als Tandem agieren – wobei Wärme, Feuchtigkeit und Impulse übertragen werden.

Smith & Gregory (2012)

Das Problem:

Es ist allgemein akzeptiert, dass das Timing von Eiszeiten auf Variationen der Sonneneinstrahlung zurückzuführen ist, die aus dem Orbit der Erde um die Sonne resultieren (Hays et al. 1976, Huybers und Wunsch 2005). Diese solaren Strahlungs-Anomalien müssen durch Rückkopplungs-Prozesse innerhalb des Klimasystems verstärkt werden, einschließlich der Änderungen der atmosphärischen Treibhausgas-Konzentrationen (Archer et al. 2000) sowie des Wachstums von Eisschilden (Clark et al. 1999). Während es Hypothesen zu den Details dieser Rückkopplungen im Überfluss gibt, ist keine davon ohne Kritiker, und wir können noch nicht behaupten zu wissen, wie das System Erde das Klima erzeugte, das wir in zahlreichen Proxys wiederfinden. Das ist von mehr als nur akademischem Interesse: ein volles Verständnis des Kohlenstoffzyklus‘ während eines Eiszeitzyklus‘ oder Details darüber, wie sich der Meeresspiegel im Zuge des Wachsens und Schrumpfens von Eisschilden lokal verändert, wären sehr nützlich bei der genauen Vorhersage zukünftiger Auswirkungen der anthropogenen CO2-Emissionen auf das Klima, können wir doch erwarten, dass viele der gleichen fundamentalen Rückkopplungen in beiden Szenarios stattfinden.

Der Jahrtausende lange Zeitskala bei der Modellierung auch nur eines einzigen Eiszeitzyklus’ ist eine enorme Herausforderung für umfassende Modelle des Erdsystems, die auf gekoppelten Atmosphäre-Ozean-Modellen beruhen (AOGCMs). Wegen der begrenzten Rechenkapazität sind AOGCMs normalerweise auf Läufe über höchstens ein paar hundert Jahre limitiert, und deren Verwendung in paläoklimatischen Studien war allgemein kurz, sozusagen ein „Schnappschuss“ aus einem speziell interessierenden Zeitabschnitt.

Kurzzeitige Simulationen glazialer Zyklen wurden bislang nur mit Modellen durchgeführt, bei denen wichtige Klimaprozesse wie Wolken oder Feuchtetransporte in der Atmosphäre nur sehr grob parametrisiert sind oder ganz außen vor gelassen wurden. Die starken Beschränkungen hinsichtlich der Rückkopplungen in solchen Modellen zeigen auch dem, was wir über die Entwicklung des Klimas daraus lernen können, Grenzen auf, vor allem in paläoklimatischen Zuständen, die sich signifikant von den besser verstandenen heutigen Zuständen unterscheiden, die die Modelle eigentlich reproduzieren sollen. Die Simulation vergangener Klimazustände in den AOGCMs und der Vergleich derselben mit auf Proxys beruhenden Klimarekonstruktionen erlauben es ebenfalls, die Sensitivität der Modelle bzgl. Klima-Antrieben zu testen, um Vertrauen in deren Vorhersagen des zukünftigen Klimas zu gewinnen.

Ihr Modell:

Für diese Simulationen haben wir den FAMOUS benutzt (=FAst Met. Office and UK universities Simulator), eine niedrig aufgelöste Version des Hadley Centre Coupled Model (HadCM3) AOGCM. Die räumliche Auflösung im FAMOUS ist etwa halb so groß wie im HadCM3, was die Rechenkosten des Modells um einen Faktor 10 reduziert.

Ihr Plan:

Wir präsentieren hier die ersten kurzzeitigen Simulationen über den gesamten letzten Eiszeitzyklus. Wir haben den Rechenaufwand dieser Simulationen durch die Verwendung von FAMOUS reduziert. FAMOUS ist ein AOGCM mit einer relativ kleinen räumlichen Auflösung, und wir haben die Randbedingungen um einen Faktor 10 verändert, so dass 120.000 Jahre zu 12.000 Jahren werden. Wir untersuchen, wie die Einflüsse orbitaler Variationen der Sonneneinstrahlung, Treibhausgase und Eisschilde der Nordhemisphäre zusammenspielen, um die Evolution des Klimas zu beeinflussen.

Es gibt bei diesem Beschleunigungsprozess aber ein Problem. Die Ozeane reagieren in ganz anderen Zeitmaßstäben auf Änderungen in der Atmosphäre. Einige ozeanische Prozesse dauern Tausende Jahre. Ob also die Verkürzung des Zeitraumes reale Klimabedingungen erzeugen kann, bleibt fraglich.

Ihr Vorgehen:

Ziel dieser Studie ist es, das physische Klima von Atmosphäre und Ozeanen während des letzten Eiszeit-Zyklus’ zu untersuchen. Zusammen mit Änderungen der Sonneneinstrahlung infolge Variationen des Erdorbits um die Sonne betrachten wir die Eisschilde der Nordhemisphäre und Änderungen der Zusammensetzung von Treibhausgasen als externe Antriebs-Faktoren des Klimasystems, die wir als Grenzbedingungen spezifizieren, entweder getrennt oder in Kombination. Änderungen der Sonnenaktivität, das Eis in der Antarktis, die Vegetation, Meeresströme oder Schmelzwasserflüsse aus den sich bildenden Eisschilden sind in diesen Simulationen nicht enthalten. Unser experimenteller Aufbau ist daher in gewisser Weise vereinfacht, wobei bestimmte potentielle Klima-Rückkopplungen ausgeschlossen sind. Obwohl dies teilweise dazu führt, dass in dieser Version von FAMOUS bestimmte Prozesse fehlen oder nur sehr schwach modelliert werden, erlaubt es uns diese Vereinfachung, den Einfluss spezifizierter Antriebe besser zu erkennen, ebenso wie die Sicherstellung, dass sich die Simulationen eng an das reale Klima anlehnen.

Noch einmal zur Verdeutlichung der Kernpunkte dieser Modellierung:

1. Ein vollständiges GCM wird verwendet, jedoch mit reduzierter räumlicher Auflösung.

2. Die Antriebe werden um einen Faktor 10 beschleunigt im Vergleich zur Realität.

3. Zwei der eingehenden grundlegenden Antriebe sind in Wirklichkeit Rückkopplungen, die man spezifizieren muss, um das Modell zum Laufen zu bringen – das heißt, das Modell kann nicht diese beiden kritischen Rückkopplungen simulieren (CO2 und Ausdehnung der Eisschilde).

4. Es wurden 5 verschiedene Simulationen durchgeführt, um die Auswirkungen verschiedener Faktoren zu erkennen:

a) Nur orbitaler Antrieb (ORB)

b) Nur Antrieb durch Treibhausgase (GHG)

c) Nur Ausdehnung der Eisschilde (ICE)

d) Alle drei zusammen mit 2 unterschiedlichen Eisschild-Rekonstruktionen (ALL-ZH & ALL-5G – man beachte, dass ALL-ZH die gleiche Eisschild-Rekonstruktion aufweist wie ICE, während ALL-5g eine andere hat).

Die modellierten Temperaturergebnisse im Vergleich zu tatsächlichen Temperaturen für die Antarktis und Grönland (Schwarz) sehen so aus:

 

Abbildung 1: Temperaturunterschiede in vorindustrieller Zeit in der Ostantarktis (oben) und Grönland (unten). Aus Smith & Gregory 2012

Hier gibt es viele interessante Punkte.

Betrachten wir zunächst die Antarktis. Man erkennt, dass orbitale Antriebe allein sowie die Eisschilde der Nordhemisphäre allein wenig oder gar keinen Einfluss auf die Modellierung der Temperaturen in der Vergangenheit haben. Aber die Treibhausgaskonzentrationen selbst als Antrieb zeigen eine modellierte Temperatur, die etwa ähnlich der letzten 120.000 Jahre ist – unabhängig von Temperaturvariationen mit höherer Frequenz, worauf wir später noch eingehen. Fügen wir die Eisschilde der Nordhemisphäre hinzu, bekommen wir sogar eine noch größere Übereinstimmung. Ich bin überrascht, dass die Eisschilde angesichts der Menge an Sonnenstrahlung, die sie reflektieren, nicht noch größeren Einfluss haben.

Sowohl Treibhausgase als auch Eisschilde kann man in der Wirklichkeit als positive Rückkopplungen betrachten (obwohl sie in diesem Modell spezifiziert sind). Für die Südpol-Region haben die Treibhausgase einen viel stärkeren Effekt.

Schauen wir auf Grönland, erkennen wir, dass der orbitale Antrieb wieder einmal für sich allein kaum eine Auswirkung zeitigt, während Treibhausgase und Eisschilde allein ähnliche Auswirkungen haben, individuell aber weit entfernt sind vom tatsächlichen Klima. Kombiniert man alle Antriebe sehen wir eine gute Übereinstimmung mit tatsächlichen Temperaturen bei einer Rekonstruktion und eine nicht so gute Übereinstimmung bei einer anderen. Dies impliziert: Bei anderen Modellen, die versuchen, die Dynamik der Eisschilde zu simulieren (anstatt sie zu spezifizieren), kann die Genauigkeit für den Erfolg der Modellierung kritisch sein.

Wieder einmal erkennen wir, dass Temperaturvariationen höherer Frequenz überhaupt nicht gut simuliert werden, und selbst bei Variationen mit geringerer Häufigkeit – zum Beispiel von vor 110.000 bis 85.000 Jahren – fehlt eine ziemliche Menge Variabilität (in dem Modell).

Die Autoren schreiben:

Die EPICA-Daten (Antarktis) zeigen, dass die Temperatur relativ zu ihren jeweiligen längerzeitlichen Trends stärker zurückging als das CO2 während dieser Zeit (vor 120.000 bis 110.000 Jahre), aber in unseren Experimenten sinken die simulierten Antarktis-Temperaturen gleichlaufend mit CO2. Dies zeigt, dass in unserem Modell eine wichtige Rückkopplung fehlt, oder dass unser Modell vielleicht über-sensitiv hinsichtlich CO2 ist und unter-sensitiv hinsichtlich eines der anderen Antriebsfaktoren. Tests des Modells, bei denen die Antriebe nicht künstlich beschleunigt wurden, schließen die Möglichkeit aus, dass die Beschleunigung ein Faktor ist.

Abrupte Klimaänderung

Was ist mit den Temperatursignalen höherer Frequenz? Die Grönland-Daten zeigen eine viel höhere Größenordnung als die Antarktis bei dieser Frequenz, aber keine von beiden wird in den Modellen reproduziert.

Der andere auffällige Unterschied zwischen dem Modell und der NGRIP-Rekonstruktion ist das Fehlen abrupter Ereignisse mit großer Amplitude im Zeitmaßstab von Jahrhunderten, die aus Eisbohrkernen hervorgehen. Man glaubt, dass periodische Fluten von Schmelzwasser der nordhemisphärischen Eisschilde und die nachfolgende Störung ozeanischer Wärmetransporte in diese Ereignisse involviert sind (Bond et al. 1993, Blunier et al. 1998), und das Fehlen von Schmelzwasserabflüssen in unserem Modell ist möglicherweise einer der Hauptgründe, warum wir sie nicht simulieren können.

Die Autoren gehen dann noch etwas näher darauf ein, da diese Geschichte keineswegs settled ist, und kommen zu dem Ergebnis:

Alles in allem zeigt das Fehlen sowohl Jahrtausende langer Warnereignisse im Süden und abrupter Ereignisse im Norden sehr deutlich, dass in unserem Modell eine wesentliche Rückkopplung mit ziemlicher Bedeutung fehlt.


CO2-Rückkopplung

Die Prozesse, die dazu führen, dass hinreichende Mengen Kohlenstoff in den Tiefen der eiszeitlichen Ozeane abgelagert werden, um die in den Eisbohrkernen erkennbaren atmosphärischen CO2-Konzentrationen zu erzeugen, sind nicht sehr gut verstanden. Sie wurden bis heute noch nicht von einem realistischen gekoppelten Modell erfolgreich simuliert. FAMOUS, in dieser Studie verwendet, enthält ein einfaches Biogeochemie-Modell, obwohl es nicht auf die Antriebe in diesen Simulationen reagiert, eine zusätzliche Aufnahme von Kohlenstoff aufzunehmen. Eine weitere FAMOUS-Simulation mit interaktivem atmosphärischem CO2 hat keinerlei signifikante Änderungen des CO2-Gehaltes der Atmosphäre gezeitigt, wenn orbitale Variationen und wachsende Nord-Eisschilde als Antrieb wirksam waren.

Die genaue Modellierung eines Eiszeitzyklus‘ erfordert eine signifikante Zunahme unseres Verständnisses der involvierten Prozesse und nicht einfach die Einbeziehung von ein wenig mehr Komplexität in das jetzige Modell.

Schlussfolgerung

Dies ist eine sehr interessante Studie, die einige Erfolge hervorhebt, Grenzen der Rechenkapazitäten aufzeigt sowie kaum verstandene sowie fehlende Rückkopplungen in Klimamodellen. Die Tatsache, dass 120.000 Jahre Klimageschichte mit einem vollständigen GCM simuliert werden konnten, ist schön zu sehen. Das Fehlen abrupter Klimaänderungen in der Simulation, das Scheitern, die rasche Temperaturabnahme zu Beginn der Auslösung einer Eiszeit nachzuvollziehen und die fehlende Fähigkeit der Modelle, wichtige Rückkopplungen zu modellieren, zeigen alle zusammen, dass Klimamodelle, zumindest soweit es die Eiszeiten betrifft – noch in den Kinderschuhen stecken. (Das heißt nicht, dass sie nicht ausgereift sind, sondern dass das Klima ein wenig hinterhältig ist).

Anmerkung 1: FAMOUS

Die Ozean-Komponente basiert auf dem rigid-lid Cox-Bryan-Modell (Pacanowski et al. 1990) und läuft mit einer Auflösung von 2,5° Breite mal 3,75° Länge mit 20 verschiedenen Schichten. Die Atmosphäre basiert auf den primitiven Gleichungen mit einer Auflösung von 5° Breite mal 7,5° Länge mit 11 verschiedenen Schichten.

Die XDBUA-Version von FAMOUS (hiernach einfach FAMOUS genannt; siehe Smith et al. 2008) hat ein vorindustrielles Kontrollklima, das in geeigneter Weise dem von HadCM3 gleicht, obwohl FAMOUS in hohen Breiten der Nordhemisphäre im Winter eine Kalt-Verzerrung von etwa 5°C aufweist im Vergleich zu HadCM3 (gemittelt nördlich von 40°N). Als Folge wird die winterliche Eisausdehnung im Nordatlantik überschätzt.

Die globale Klimasensitivität von FAMOUS auf eine Zunahme des atmosphärischen CO2-Gehaltes jedoch ist ähnlich der von HadCM3.

Bei FAMOUS gibt es eine Reihe von Unterschieden im Vergleich zu HadCM3 mit dem Ziel, die Klimasimulation zu verbessern. So wurde zum Beispiel Island entfernt (Jones 2003), um einen stärkeren Wärmetransport im Nordatlantik zu erzielen. Smith und Gregory zeigen, dass die Sensitivität der Atlantic meridional overturning circulation (AMOC) hinsichtlich Störungen in dieser Version von FAMOUS etwa in der Mitte der Bandbreite liegt im Vergleich mit vielen anderen gekoppelten Klimamodellen. Das in dieser Studie verwendete Modell unterscheidet sich von XDBUA FAMOUS dadurch, dass zwei technische Bugs im Code festgemacht worden sind. Flüsse von latenter und fühlbarer Wärme aus dem Ozean wurden fälschlich als Teil der Kopplungs-Routine angesehen, und Schnee, der auf Meereis an Küsten fällt, ist dem Modell verloren gegangen. Die Korrektur dieser Fehler führte zu einer zusätzlichen Kalt-Verzerrung von einem Grad oder so in Küstengebieten hoher Breiten in Bezug auf XDBUA, doch gab es keine wesentlichen Änderungen der Modell-Klimatologie. Außerdem wurde die grundlegende Topographie des Festlandes in diesen Läufen aus den modernen Werten des ICE-5G-Datensatzes interpoliert (Peltier 2004). Sie unterscheidet sich in gewisser Weise von der von der US-Navy abgeleiteten Topographie in Smith et al (2008) und HadCM3.

Link: http://scienceofdoom.com/2013/12/31/ghosts-of-climates-past-part-nine-gcm-iii/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/




Das Rätsel der Eiszeiten, Teil 8, Global Circulation Models II

scienceofdoom

In Teil VII haben wir eine Reihe von Studien aus den Jahren 1989 bis 1994 betrachtet. Diese haben versucht, mittels GCMs eine „Eiszeit beginnen zu lassen“. Die Entwicklung der „voranschreitenden Klimawissenschaft“ war dabei folgende:

1. Hinweise zu finden, dass das Timing des Beginns einer Eiszeit verbunden war mit der Umverteilung solarer Einstrahlung infolge orbitaler Änderungen – möglicherweise mit einer reduzierten sommerlichen Einstrahlung in hohen Breiten (Hays et al. 1976 – siehe Teil III).

2. Die Verwendung einfacher Energiebilanz-Modelle, um zu zeigen, dass hinter den plausiblen Überlegungen auch etwas Physik steckt (In Teil VI – Gewimmel von Hypothesen haben wir einige plausible Ideen kennengelernt).

3. Verwendung eines GCM (global circulation model) mit Anfangsbedingungen wie sie vor etwa 115.000 Jahren vorlagen, um zu sehen, ob man eine „nicht mehr verschwindenden Schneedecke“ in hohen Breiten erhält, die zuvor während der letzten Zwischeneiszeit nicht schneebedeckt waren – d. h. können wir eine neue Eiszeit beginnen lassen?

Warum brauchen wir ein komplexeres Modell, wenn doch schon ein Energiebilanzmodell „funktioniert“, d. h. eine andauernde Schneedecke erzeugen kann, um eine neue Eiszeit beginnen zu lassen? Wie Rind et al. 1989 in ihrer Studie schreiben:

Verschiedene Energiebilanz-Klimamodelle wurden verwendet, um abzuschätzen, wie groß die Abkühlung im Zuge veränderter orbitaler Parameter wäre. Mit einer geeigneten Anpassung der Parameter, von denen einige aufgrund von Beobachtungen gerechtfertigt sind, kann man die Modelle dazu bringen, die großen eiszeitlichen/zwischeneiszeitlichen Klimaänderungen zu simulieren. Allerdings rechnen diese Modelle nicht mit den Prinzipien all der verschiedenen Einflüsse auf die Lufttemperatur, die wir oben beschrieben haben, und sie enthalten auch keinen hydrologischen Zyklus, welcher es gestatten würde, eine Schneedecke entstehen oder sich ausweiten zu lassen. Die tatsächlichen Prozesse, die es einer Schneedecke gestatten, auch im Sommer bestehen zu bleiben, werden komplexe hydrologische und thermische Einflüsse enthalten, für welche einfache Modelle lediglich grobe Annäherungen bieten können.

Interessanterweise hat also der Schwenk zu komplexeren Modellen mit besser aufgelöster Physik gezeigt, dass es hinsichtlich des Beginns einer Eiszeit in Klimamodellen Probleme gibt. Das waren aber auch noch frühe GCMs mit begrenzter Rechenleistung. In diesem Artikel wollen wir die Ergebnisse von etwa einem Jahrzehnt später betrachten.

Überblick

Wir beginnen mit zwei Studien, die exzellente Überblicke des „Problems bis hier“ enthalten. Eine stammt von Yoshimori et al. (2002) und die andere von Vettori & Peltier (2004). Zu Ersterer:

Eine der fundamentalen und herausfordernden Dinge bei der Modellierung des Paläoklimas ist das Scheitern, den Beginn der letzten Eiszeit zu erfassen (Rind et al. 1989). In einem Zeitraum von vor 118.000 und 110.000 Jahren sank der Meeresspiegel rapide um 50 bis 80 Meter, verglichen mit der letzten Zwischeneiszeit, in der der Meeresspiegel nur 3 bis 5 Meter höher lag als heute. Dieses Absinken des Meeresspiegels macht etwa die Hälfte des letzten eiszeitlichen Maximums aus. Und der Beginn der letzten Vereisung bietet einen von nur wenigen wertvollen Testbereichen zur Validierung von Klimamodellen, vor allem der atmospheric general circulation models (AGCMs). Hierzu wurden viele Studien durchgeführt.

Phillipps & Held (1994) sowie Gallimore & Kutzbach (1995) haben eine Reihe von numerischen Sensitivitäts-Experimenten im Hinblick auf orbitale Parameter durchgeführt, indem sie mehrere extreme orbitale Konfigurationen durchspielten. Darunter befand sich ein Fall mit geringerer Neigung und kleinerem Perihel im Winter der Nordhemisphäre, was zu einem kühleren Sommer führte. Beide Studien kamen zum gleichen Ergebnis: Obwohl eine kühle sommerliche orbitale Konfiguration die besten Bedingungen für die Entwicklung permanenten Schnees und die Ausdehnung von Gletschern bietet, kann der orbitale Antrieb allein nicht für die permanente Schneebedeckung in Nordamerika und Europa verantwortlich sein.

Dieses Ergebnis wurde von Mitchell (1993), Schlesinger & Verbitsky (1996) sowie Vavrus (1999) bestätigt. Schlesinger & Verbitsky (1996) haben ein Eisschild – Asthenosphäre*-Modell mit einem AGCM-Output integriert und herausgefunden, dass eine Kombination von orbitalem Antrieb und Treibhaus-Antrieb durch reduziertes CO2 und CH4 ausreichend waren, um Zentren von Eisschilden in Nordeuropa und Amerika zu erhalten. Allerdings betrug das simulierte Eisvolumen nur etwa 31% der aus den Proxy-Werten abgeleiteten Schätzung.

[*Asthenosphäre: (griech.: asthenia = Schwäche). Die zwischen 100-200km
mächtige "schwache" oder "weiche" Zone der Erde im Oberen Erdmantel
unterhalb der Litosphäre. Mehr dazu siehe hier]

Mittels eines höher auflösenden Modells haben Dong & Valdes (1995) das Wachstum permanenter Schneedecken unter einer Kombination orbitaler und CO2-Antriebe simuliert. Ebenso wie in der Auflösung ihres Modells bestand ein weiterer wichtiger Unterschied zwischen ihrem Modell und anderen in Gestalt einer „umgebenden Orographie“ (d. h. sie haben mit der Höhe des Landes herumgespielt). Sie fanden dabei heraus, dass die Änderungen der Wassertemperatur infolge orbitaler Einflüsse eine sehr wichtige Rolle bei der Entstehung der Eisschilde in Nordamerika und Fennoskandien spielten.

Anmerkung zum letzten Abschnitt: es ist wichtig zu verstehen, dass diese Studien mit einem Atmosphäre-GCM durchgeführt worden sind und nicht mit einem Atmosphäre-Ozean-GCM – d. h. mit einem Modell der Atmosphäre mit einigen vorgegebenen Wassertemperaturen (diese könnten aus einem separaten Lauf eines einfacheren Modells stammen oder aus Werten, die aus Proxys berechnet wurden). Die Autoren kommentieren dann den potentiellen Einfluss auf die Vegetation wie folgt:

Die Rolle der Vegetation am Beginn einer Vereisung wurde von Gallimore & Kutzbach (1996), de Noblet et al. (1996) sowie Pollard und Thompson (1997) untersucht. Gallimore & Kutzbach integrierten ein AGCM mit einem Mixed Layer Ozean-Modell mit fünf verschiedenen Antrieben: 1) Kontrolle, 2) orbital, 3) Punkt 2 plus CO2, 4) Punkt 3 plus Ausdehnung der Tundra um 25% (basierend auf einer Studie von Harrison et al. (1995) und 5) Punkt 4 plus eine weitere Ausdehnung der Tundra um 25%. Dem Effekt der Ausdehnung der Tundra durch ein vegetation-snow masking feedback näherte man sich durch Zunahme des Anteils der Schneebedeckung. Und nur im letzten Fall konnte man eine andauernde Schneedecke sehen.

Pollard & Thompson (1997) führten ebenfalls ein interaktives Vegetations- und AGCM-Experiment durch sowohl mit orbitalem als auch mit CO2-Antrieb. Außerdem integrierten sie ein dynamisches Eisschilde-Modell. Sie integrierten weiterhin ein Eisflächen-Modell über 10.000 Jahre. Darin gingen die die Massenbilanz ein, welche vom AGCM-Ergebnis abgeleitet wurde. Dies wiederum erfolgte mit einem Vielschichten-Eisschild-Oberflächen-Säulen-Modell auf dem Gitternetz des dynamischen Eisflächen-Modells, welches den Effekt von gefrierendem Regen und Schmelzwasser beinhaltete. Obwohl ihr Modell das Wachstum eines Eisschildes über der Baffin-Insel und dem kanadischen Archipel vorhersagte, sagte es auch eine viel schnellere Wachstumsrate in Nordwestkanada und Alaska voraus. Keine dauerhafte Schneedecke fand sich in Keewatin oder Labrador (d. h. an den falschen Stellen). Außerdem war die Rate der Zunahme des Eisvolumens über Nordamerika um eine Größenordnung niedriger als aus Proxys geschätzt.

Sie schließen daraus:

Es ist schwierig, die Ergebnisse dieser früheren Studien zu synthetisieren, weil jedes Modell unterschiedliche Parametrisierungen ungelöster physikalischer Prozesse verwendet hat, unterschiedliche Auflösung hatte und auch noch unterschiedliche Kontroll-Klimate ebenso wie das experimentelle Design.

Zusammenfassend stellen sie fest: die Ergebnisse bis heute zeigen, dass weder orbitale Antriebe allein noch CO2 allein den Beginn einer Vereisung erklären können. Ferner sind die kombinierten Auswirkungen nicht konsistent. Die Schwierigkeit besteht in der Frage, ob dies auf die unzureichende Gitter-Auflösung des Modells oder auf Rückkopplungen aus der Biosphäre (Vegetation) zurückzuführen ist.

Ein paar Jahre später gaben dann Vettoretti & Peltier (2004) eine gute Übersicht zu Beginn ihrer Studie:

Ursprüngliche Versuche, ein größeres Verständnis der Natur von Eiszeit-Zwischeneiszeit-Zyklen zu erhalten, involvierten Studien, die auf einfachen Energiebilanz-Modellen (EBMs) basierten, die direkt auf die Simulation einer andauernden Schneedecke ausgerichtet waren unter Einfluss von angemessen modifizierten orbitalen Antrieben (z. B. Suarez und Held 1979). inzwischen wurden Analysen entwickelt, dass die gegenwärtig gebräuchlichen Modelle des Klimasystems explizit die Kopplung von Eisschilden zu den EBM enthalten müssen oder an vollständigere AGCMs der Atmosphäre ankoppeln sollen.

Die zuletzt entwickelten Modelle des vollständigen Zyklus’ über 100.000 Jahre haben sich bis zu einem Punkt entwickelt, an dem drei Modellkomponenten miteinander verbunden worden sind. Einmal ein EBM der Atmosphäre unter Einschluss der Eis-Albedo-Rückkopplung sowohl von Schnee an Land als auch Eis auf dem Meer, ein Modell der globalen Glaziologie, in dem die Eisschilde zum Wachsen und Schrumpfen gebracht werden durch meteorologisch gesteuerte Änderungen in der Massenbilanz und ein Modell der glazialen isostatischen Justierung, durch welchen Prozess die Höhe des Eisschildes unterdrückt oder erhöht  werden kann, abhängig davon, ob Akkumulation oder Abtragung dominant ist.

Derartige Modelle wurden auch verwendet, um die Schlüsselrolle zu untersuchen, die Variationen des atmosphärischen Kohlendioxids im 100.000-Jahres-Zyklus spielen, vor allem beim Übergang aus einem eiszeitlichen Zustand (Tarasov und Peltier 1997, Shackleton 2000). Da diese Modelle hinsichtlich der Computerressourcen ziemlich effizient sind, die man hier braucht, sind sie in der Lage, die große Zahl von Eiszeit/Zwischeneiszeit-Zyklen zu simulieren. Dies ist erforderlich, um die Modell-Sensitivitäten zu verstehen.

Es gab innerhalb der modellierenden Zunft eine Bewegung, auch Modelle zu benutzen, die derzeit als earth models of intermediate complexity (EMICs) bezeichnet werden und die Sub-Komponenten enthalten, die nicht so raffiniert sind im Vergleich zu den gleichen Komponenten in modernen globalen Klimamodellen (GCMs). Diese EMICs versuchen, Repräsentationen der meisten Komponenten im realen System Erde einzuschließen, darunter die Atmosphäre, die Ozeane, die Cryosphäre und die Biosphäre bzw. der Kohlenstoffzyklus (z. B. Claussen 2002). Derartige Modelle haben nützliche Einsichten in die langzeitliche Klima-Variabilität geliefert und werden das auch weiterhin tun, indem sie es ermöglichen, eine große Zahl von Sensitivitäts-Studien durchzuführen. Damit soll die Rolle zahlreicher Rückkopplungs-Mechanismen untersucht werden, die aus der Wechselwirkung zwischen den Komponenten resultieren, die das Klimasystem ausmachen (z. B. Khodri et al. 2003).

Dann kommentieren die Autoren die gleichen Studien und Themen, die von Yoshimori et al. behandelt worden sind und fügen ihre eigene Studie aus dem Jahr 2003 sowie eine weitere Studie hinzu. Zu ihrer eigenen Forschung schreiben sie:

Vettoretti und Peltier (2003a) haben in jüngerer Zeit gezeigt, dass es einer neu kalibrierten Version des CCCma AGCM2 zu einer permanenten Schneebedeckung allein als Konsequenz orbitaler Antriebe kommt, wenn die atmosphärische CO2-Konzentration auf einem Niveau entsprechend der vorindustriellen Zeit fest gehalten wird. Diese erhält man durch Messungen der Luftbläschen, die im Vostok-Eisbohrkern eingeschlossen waren (Petit et al. 1999).

 Die AGCM-Simulation zeigte, dass sich eine permanente Schneedecke in hohen nördlichen Breiten bildet ohne die Notwendigkeit der Berücksichtigung irgendwelcher Rückkopplungen durch Vegetation oder anderer Effekte. In dieser Arbeit wurde der Prozess des Beginns der Vereisung analysiert, und zwar mit drei Modellen, die drei verschiedene Kontrollklimata enthalten. Das waren jeweils das CCCma cold biased Modell, ein neu konfiguriertes Modell, das so modifiziert wurde, dass es "unbiased" aussieht, und ein Modell dass zur Wärme hin "gebiased" war hinsichtlich des modernen Satzes von AMIP2-Wassertemperaturen (Anmerkung: Bias = Tendenz, Verzerrung, Voreingenommenheit). Vettoretti und Peltier (2003b) zeigten eine Anzahl neuer Feedback-Mechanismen, die für die Ausweitung einer permanenten Schneebedeckung wichtig sind.

Im Einzelnen zeigte diese Arbeit, dass allmählich kälter werdende Klimata den Feuchtetransport in Regionen zunehmen ließen, die für den Beginn einer Vereisung empfänglich sind, und zwar durch verstärkte barokline Wirbelaktivität in mittleren und hohen Breiten. Um dieses Phänomen quantitativ abzuschätzen, wurde eine detaillierte Untersuchung zu Änderungen der Feuchtigkeits-Balance-Gleichung unter orbitalen Antrieben bzgl. der arktischen Eiskappe vor 116.000 Jahren durchgeführt. Ebenso wie die Aktivität einer „cryosphärischen Feuchtepumpe“ zu zeigen, schlugen die Autoren auch vor, dass die zonale Asymmetrie beim Beginn des Prozesses in hohen Breiten geologischen Beobachtungen zufolge eine Konsequenz zonal heterogener Zu- und Abnahmen des nordwärts gerichteten Transportes von Wärme und Feuchtigkeit ist.

Und sie fahren fort, andere Studien zu beleuchten, deren Betonung auf polwärts gerichteten Transporten von Feuchtigkeit liegt. Wir wollen jetzt einige Arbeiten aus jener Periode vorstellen.

Neuere Arbeiten mit GCMs

Yoshimori et al. 2002: Deren Modelle waren ein AGCM (atmosphärisches GCM) mit orbitalen Bedingungen vor 116.000 Jahren sowie Wassertemperaturen a) heute und b) vor 116.000 Jahren. Außerdem ein anderer Modelllauf mit obigen Bedingungen und veränderter Vegetation basierend auf der Temperatur (liegt die Sommertemperatur unter -5°C, wird der Vegetationstyp zu Tundra geändert). Weil ein „vollständig gekoppeltes“ GCM (Atmosphäre und Ozean) über einen langen Zeitraum zu viel Rechenleistung erforderte, wurde ein Kompromiss gewählt.

Die Wassertemperaturen wurden berechnet mittels eines mittelkomplexen Modells, einem einfachen atmosphärischen Modell und einem vollständigen Ozean-Modell (einschließlich Meereis) – und mit einem Modelllauf über 2000 Jahre (Ozeane haben viel thermisches Beharrungsvermögen). Die Details hierzu werden in Abschnitt 2.1 ihrer Studie beschrieben. Der Gedanke dahinter ist, Oberflächen-Wassertemperaturen (SST) zu erhalten, die mit Ozean und Atmosphäre konsistent sind.

Die Wassertemperaturen werden dann als Randwertbedingungen benutzt für einen „ordentlichen“ GCM-Lauf über 10 Jahre – dies wird in Abschnitt 2.2 ihrer Studie beschrieben. Die Einstrahlungs-Anomalie (insulation anomaly) mit Bezug zum heutigen Tag:

Abbildung 1. Einstrahlungs-Anomalie vor 116.000 Jahren relativ zu heute (nach Phillipps und Held 1994). Die Bezeichnungen VE, SS, AE und WS stehen für Frühjahrs-Tag-und-Nacht-Gleiche, Sommersonnenwende, Herbst-Tag-und-Nacht-Gleiche sowie Wintersonnenwende auf der Nordhemisphäre. Das Intervall der Isolinien beträgt 5 W/m², und negative Werte sind gepunktet.

Sie geben für die Zeit vor 116.000 Jahren eine CO2-Konzentration von 240 ppm vor, ist dies doch „das niedrigst mögliche äquivalente CO2-Niveau“ (eine Kombination von CO2- und CH4-Antrieben). Dies gleicht einer Reduktion des Strahlungsantriebs um 2,2 W/m². Die vom ursprünglichen Modell berechneten Wassertemperaturen sind global um 1,1°C niedriger, verglichen mit den heutigen modellierten Werten. Dies liegt nicht an der Strahlungs-Anomalie, die die Sonnenenergie lediglich „umverteilt“, sondern an der geringeren atmosphärischen CO2-Konzentration. Die Wassertemperatur vor 116.000 Jahren im Nordatlantik lag um etwa 6°C niedriger. Dies ist dem niedrigen Einstrahlungswert im Sommer plus einer Reduktion im MOC geschuldet. Die Ergebnisse ihrer Arbeit:

● Mit heutigen Werten der Wassertemperatur sowie orbitalen und CO2-Werten von vor 116.000 Jahren gibt es eine kleine Ausdehnung der permanenten Schneebedeckung.

● Mit berechneten Werten der Wassertemperatur, orbitalen und CO2-Werten, alle vor 116.000 Jahren, ergibt sich eine große Ausdehnung permanenter Schneebedeckung in Nord-Alaska, Ostkanada und einigen anderen Gebieten.

● Mit hinzugefügten Änderungen der Vegetation (Tundra) breitet sich die permanente Schneebedeckung nördlich von 60° noch weiter aus

Sie kommentieren, gestützt durch Graphiken, dass eine größere Schneebedeckung teils durch geringere Schneeschmelze, aber auch teils durch stärkeren Schneefall entstehen kann. Dies ist selbst dann der Fall, wenn kältere Temperaturen im Allgemeinen für weniger Niederschlag sprechen.

Im Gegensatz zu früheren Eiszeit-Hypothesen zeigen unsere Ergebnisse, dass die Erfassung des Beginns einer Vereisung vor 116.000 Jahren „kühlere“ Wassertemperaturen erfordert als sie heute vorhanden sind. Auch zeigt der große Einfluss von Änderungen der Vegetation auf das Klima, dass die Einbeziehung der Vegetations-Rückkopplung wichtig ist für die Modell-Validierung, zumindest in diesem speziellen Zeitraum der Erdgeschichte.

Was wir nicht herausfanden ist, warum ihr Modell permanente Schneebedeckung erzeugt (selbst ohne Änderungen der Vegetation), wo frühere derartige Versuche das nicht gezeigt haben. Was nicht erwähnt worden zu sein scheint ist, dass zu den notwendigen Bedingungen kältere Wassertemperaturen gehören, induziert durch einen viel geringeren atmosphärischen CO2-Gehalt. Ohne den niedrigeren CO2-Gehalt kann dieses Modell keine Eiszeit beginnen lassen. Zusätzlich sagen Vettoretti & Peltier 2004 zu dieser Studie:

Die Bedeutung dieser Ergebnisse bleibt jedoch abzuwarten, da das ursprüngliche CCCma AGCM2-Modell in hohen Breiten hin zu kälteren Temperaturen "gebiased" und empfindlich auf den niedrigen CO2-Wer istt, der den Simulationen zugrunde liegt.

Vettoretti & Peltier 2003

Auf diese Studie beziehen sie sich in ihrer eigenen Arbeit von 2004. Diese Simulation zeigt, dass der Eintritt in eiszeitliche Bedingungen vor 116.000 Jahren nur die Einführung orbitaler Einstrahlung der Nach-Eemian-Zeit und standardmäßige vorindustrielle CO2-Werte erfordert.

Im folgenden Bild sind die jahreszeitlichen und breitenabhängigen Variationen der solaren Einstrahlung an der Obergrenze der Atmosphäre TOA im Vergleich von vor 116.000 Jahren und heute gezeigt:

 

Abbildung 2: (a) Eine Zeitreihe der Exzentrizität, der Neigung, der Präzession und der Einstrahlungs-Anomalie an der Obergrenze der Atmosphäre vom vorletzten Abschmelzen bis zum Beginn der neuen Vereisung in der Nach-Eemian-Zeit [ein Zeitraum von 35.000 Jahren]. Der Punkt, an dem die Bedingungen für den Beginn einer Vereisung am günstigsten sind, wird durch die Linie mit der Bezeichnung GI gekennzeichnet. Die Einstrahlungskurve (linke vertikale Achse) misst die Gesamt-Energieanomalie im Vergleich zu heute (Einheit 10↑23 J), und zwar über der arktischen Eiskappe im Sommer. Die Orbital-Parameter für jedes der drei orbitalen Elemente sind auf der rechten vertikalen Achse aufgetragen. (b) Ein Hovmöller-Diagramm der Einstrahlungs-Anomalie (W/m²) an der Oberfläche für den jährlichen Zyklus vor 116.000 Jahren.

Aus Vettoretti & Peltier 2003

Kernpunkt ihres Modelltests war: sie nahmen ein atmosphärisches GCM gekoppelt mit festgesetzten Werten der Wassertemperatur – für drei verschiedene Datensätze – mit orbitalen und Treibhausgas-Bedingungen von vor 116.000 Jahren. Damit wollten sie herausfinden, ob sich eine permanente Schneebedeckung ergibt und wo:

Die drei Experimente der Zeit vor 116.000 Jahren zeigten, dass der Beginn einer Vereisung in zwei der drei Simulationen mit diesem Modell erfolgreich war. Das "warm-bias" Experiment erzeugte keine permanente Schneebedeckung in der Arktis außer im zentralen Grönland.

Das "kalt-bias" Experiment erzeugte in weiten Gebieten der Arktis nördlich von 60°N eine permanente Schneebedeckung. Starke Akkumulationen zeigten sich im kanadischen Archipel sowie in Ost- und Zentralsibirien. Die Akkumulation in Ostsibirien scheint exzessiv zu sein, da es kaum Beweise gibt, dass Ostsibirien jemals in einen Eiszeitzustand gelangte. Die Verteilung der Akkumulation in diesem Gebiet ist möglicherweise das Ergebnis exzessiver Niederschläge in der modernen Simulation.

Sie kommentieren weiter:

Alle drei Simulationen sind charakterisiert durch exzessive Sommerniederschläge über den meisten polaren Landgebieten. Ebenso zeigt ein Plot des jährlichen Mittleren Niederschlags in dieser Region des Globus‘, dass das CCCma-Modell im Gebiet der Arktis allgemein "nass-bias" ist. Früher wurden bereits gezeigt, dass das CCCma GCMII-Modell ebenfalls einen hydrologischen Zyklus hat, der stärker ist als beobachtet (Vettoretti et al. 2000b).

Es ist unklar, wie stark die Modell-Bias des exzessiven Niederschlags auch ihr Ergebnis der Schnee-Akkumulation in den „richtigen“ Gebieten beeinflusst. Im Teil II ihrer Studie graben sie sich in Details der Änderungen von Verdunstung, Niederschlag und Feuchtetransport in das arktische Gebiet.

Crucifix & Loutre 2002

Diese Studie (und die Folgende) verwendete ein EMIC – ein intermediate complexity model – welches ein Modell mit einer gröberen Auflösung und einfacherer Parametrisierung ist und deshalb auch viel schneller rechnet. Das erlaubt die Durchführung vieler unterschiedlicher Simulationen über viel längere Zeiträume, als es mit einem GCM möglich ist. Die EMICs sind auch in der Lage, Biosphäre, Ozean, Eisschilde und Atmosphäre zu koppeln – während den GCM-Läufen nur ein atmosphärisches GCM mit einer bestimmten Methode der Festsetzung von Wassertemperaturen zugrunde lag.  

In dieser Studie geht es um die Klimaänderung in den hohen nördlichen Breiten während der letzten Zwischeneiszeit (von vor 126.000 Jahren bis vor 115.000 Jahren) unter Verwendung des earth system model of intermediate complexity ‘‘MoBidiC’’.

Zwei Reihen von Sensitivitäts-Experimenten wurden durchgeführt, um a) die jeweilige Rolle unterschiedlicher Rückkopplungen im Modell und b) die jeweiligen Auswirkungen von Neigung und Präzession zu bestimmen. MoBidiC enthält Repräsentationen der atmosphärischen Dynamik, der Ozean-Dynamik, Meereis und Vegetation. Eine Gesamtzahl von zehn numerischen Experimenten wird hier gezeigt. Das Modell simuliert wichtige Umweltänderungen in hohen nördlichen Breiten vor dem Beginn der letzten Vereisung, d. h.: a) eine mittlere jährliche Abkühlung um 5°C hauptsächlich im Zeitraum von vor 122.000 und 120.000 Jahren; b) eine Südverlagerung der nördlichen Baumgrenze um 14 Breitengrade; c) Akkumulation einer permanenten Schneedecke mit Beginn vor etwa 122.000 Jahren und d) ein graduelles Auftauchen von permanentem Meereis in der Arktis.

Die Reaktion der borealen Vegetation ist ein ernsthafter Kandidat, um den orbitalen Antrieb signifikant zu verstärken und den Beginn einer Vereisung auszulösen. Das Grundkonzept ist, dass in einem großen Gebiet ein Schneefeld eine viel höhere Albedo zeitigt als Gras oder Tundra (etwa 0,8) oder Wald (0,4).

Es muss angemerkt werden, dass die planetare Albedo auch bestimmt wird durch den Reflexionsgrad der Atmosphäre und im Besonderen durch die Wolkenbedeckung. Allerdings ist trotz der  im MoBidiC geforderten Wolken die Oberflächen-Albedo definitiv der Haupttreiber planetarer Albedo-Änderungen.*

In ihrer Zusammenfassung schreiben sie:

In hohen Breiten simuliert MoBidiC eine jährliche mittlere Abkühlung von 5°C über den Kontinenten und eine Abnahme von 0,3°C der Wassertemperatur. Die Abkühlung ist hauptsächlich verbunden mit einer Abnahme der kurzwelligen Strahlungsbilanz an der Obergrenze der Atmosphäre um 18 W/m², teils kompensiert durch eine Zunahme von 15 W/m² in der atmosphärischen meridionalen Wärmetransport-Divergenz.

Die Änderungen werden hauptsächlich durch astronomische Antriebe ausgelöst, aber durch Meereis, Schnee und Rückkopplungen der Albedo durch Vegetation fast vervierfacht. Die Effizienz dieser Rückkopplungen wird verstärkt durch Synergien, die zwischen ihnen stattfinden. Die kritischste Synergie involviert Schnee und Vegetation und führt zu dauerhaftem Schnee nördlich von 60°N, beginnend vor 122.000 Jahren. Die Temperatur-Albedo-Rückkopplung ist auch verantwortlich für eine Beschleunigung des Abkühlungstrends in der Zeit von vor 122.000 Jahren bis vor 120.000 Jahren. Diese Beschleunigung wird nur nördlich von 60°N simuliert und fehlt in niedrigeren Breiten.

Siehe Fußnote 2 für Details des Modells. Dieses Modell weist eine Kalt-Bias bis zu 5°C im Winter in den hohen Breiten auf.

Calov et al. 2005

Wir untersuchen die Mechanismen des Beginns einer Vereisung mit dem Erde-System-Modell mittlerer Komplexität CLIMBER-2, welches dynamische Module der Atmosphäre, der Ozeane, der Biosphäre und der Eisschilde umfasst. Die Dynamik der Eisschilde wird durch das dreidimensionale polythermische Eisschild-Modell SICOPOLIS beschrieben. Wir haben transparente numerische Experimente durchgeführt, und zwar beginnend mit dem Eemian-Interglazial vor 126.000 Jahren. Das Modell läuft über 26.000 Jahre mit zeitabhängigen orbitalen und CO2-Antrieben.

Das Modell simuliert eine rapide Ausdehnung der mit Inlandeis bedeckten Gebiete der Nordhemisphäre, vor allem über Nordamerika, die vor 117.000 Jahren begonnen hatte. Während der folgenden 7000 Jahre ist das Eisvolumen im Modell graduell gestiegen, und zwar mit einer Rate, die mit einer Änderung der Höhe des Meeresspiegels um 10 m pro Millenium korrespondiert.

Wir haben gezeigt, dass der simulierte Beginn der Vereisung einen Bifurkations-Übergang im Klimasystem repräsentiert, und zwar von einem zwischeneiszeitlichen Zustand in einen eiszeitlichen Zustand, verursacht durch die starke Schnee-Albedo-Rückkopplung. Dieser Übergang erfolgt, wenn die sommerliche Einstrahlung in hohen Breiten der Nordhemisphäre unter einen bestimmten Wert fällt, der nur geringfügig niedriger liegt als die heutige sommerliche Einstrahlung (Bifurkation ist ein Begriff der Chaos-Therie).

Die Durchführung langzeitlicher Gleichgewichts-Läufe zeigt, dass es für die heutigen orbitalen Parameter mindestens zwei unterschiedliche Gleichgewichts-Zustände des Klimasystems gibt – den eiszeitlichen und den zwischeneiszeitlichen Zustand. Für die geringe sommerliche Einstrahlung vor 115.000 Jahren finden wir jedoch nur einen eiszeitlichen Gleichgewichts-Zustand, während in dem Modell bei starker Einstrahlung vor 126.000 Jahren nur ein zwischeneiszeitlicher Zustand existiert.

Durch die grobere Gitter-Auflösung des EMIC bekommen wir eine gewisse Vereinfachung:

Die Atmosphären-, Landoberflächen- und Vegetations-Modelle rechnen mit dem gleichen Gitterpunktsabstand, nämlich 10° Breite und etwa 51° Länge.

Ihr Eisschild-Modell ist wesentlich detaillierter, passen doch etwa 500 „Zellen“ des Eisschildes in 1 Zelle des Landoberflächen-Modells. Sie nehmen auch Stellung zu allgemeinen Problemen (bislang) mit Klimamodellen bei deren Versuch, Eiszeiten zu erzeugen:

Wir spekulieren, dass das Scheitern einiger Klimamodelle bei der erfolgreichen Simulation des Beginns einer Vereisung ihrer zu groben räumlichen Auflösung oder Klima-Bias geschuldet ist, die ihre Werte der sommerlichen Einstrahlung verschieben können. Dies passt mit einem Übergang von einem zwischeneiszeitlichen zu einem eiszeitlichen Klimastatus zusammen, der weit über die realistische Bandbreite orbitaler Parameter hinausgeht.

Ein weiterer wichtiger Faktor, der den Wert des Bifurkations-Übergangs bestimmt, ist die Albedo von Schnee.

In unserem Modell verhindert eine Reduktion der gemittelten Schnee-Albedo um nur 10% das rapide Einsetzen von Vereisung auf der Nordhemisphäre unter jeder orbitalen Konfiguration, die während des Quartiärs aufgetreten war. Die Albedo von Schnee ist in vielen Klimamodellen nur auf sehr grobe Weise parametrisiert und kann unterschätzt werden. Mehr noch, da die Albedo von Schnee stark von der Temperatur abhängt, kann die Unter-Repräsentation höher gelegener Gebiete in einem groben Klimamodell die Schnee-Albedo-Rückkopplung zusätzlich schwächen.

Schlussfolgerung

In diesem Beitrag haben wir ein paar Studien von vor etwa einem Jahrzehnt begutachtet, die frühere Probleme (siehe Teil Sieben) erfolgreich gelöst haben, zumindest vorläufig. Wir haben zwei Studien kennengelernt, die mit Modellen „mittlerer Komplexität“ und grober räumlicher Auflösung den Beginn der letzten Eiszeit simuliert haben. Und wir haben zwei Studien kennengelernt, die GCMs mit vorgegebenen ozeanischen Bedingungen verknüpfen. Diese haben eine permanente Schneebedeckung in kritischen Gebieten vor 116.000 Jahren simuliert.

Definitive Fortschritte

Aber man erinnere sich an die Bemerkung, frühe Energiebilanz-Modelle seien zu dem Ergebnis gekommen, dass es zu einer permanenten Schneebedeckung kommen könnte durch reduzierte sommerliche Einstrahlung in hohen nördlichen Breiten – Unterstützung für die „Milankovitch“-Hypothese. Dann jedoch haben deutlich verbesserte – aber immer noch rudimentäre – Modelle von Rind et al. 1989 sowie Phillipps & Held 1994 gezeigt, dass jene mit einer besseren Physik und einer höheren Auflösung nicht in der Lage waren, diesen Fall zu reproduzieren. Genauso war es mit vielen späteren Modellen.

Wir müssen immer noch ein vollständig gekoppeltes GCM (Atmosphäre und Ozean) betrachten, um zu versuchen, den Beginn einer Eiszeit zu erzeugen. Im nächsten Beitrag werfen wir einen Blick auf eine Anzahl von Studien aus neuerster Zeit einschließlich Jochum et al. (2012):

Bislang jedoch haben es vollständig gekoppelte GCMs nicht geschafft, den Beginn einer Vereisung zu reproduzieren und auch nicht die Abkühlung und die Zunahme der Schnee- und Eisbedeckung, die von warmen Zwischeneiszeiten zu kalten Eiszeitperioden führte.

Das Scheitern der GCMs hinsichtlich der Erzeugung eines Vereisungs-Beginns (siehe Otiento und Bromwich 2009 für eine Zusammenfassung), bedeutet ein Scheitern entweder der GCMs oder der Hypothese von Milankovitch. Natürlich, wenn die Hypothese die Schuldige wäre, müsste man sich fragen, ob man das Klima überhaupt ausreichend genug verstanden hat, um ein GCM zu entwickeln.

Wir werden auch sehen, dass die Stärke von Rückkopplungs-Mechanismen, die zu einer dauerhaften Schneedecke führen, in unterschiedlichen Studien signifikant variiert. Und eines der größten Probleme, mit denen man immer noch konfrontiert wird, ist die erforderliche Rechenleistung.

Zitat aus Jochum (2012):

Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell des letzten Interglazials vor etwa 126.000 Jahren für 10.000 Jahre in eine Eiszeit mit sich allmählich änderndem orbitalen Antrieb integrieren. Allerdings ist dies nicht machbar; eine 100-jährige Integration von CCSM auf einem NCAR-Supercomputer würde etwa 1 Monat dauern sowie einen substantiellen Teil der Rechenkapazität der Klimagruppe erfordern.

Link: http://scienceofdoom.com/2013/12/27/ghosts-of-climates-past-part-eight-gcm-ii/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/




Das Rätsel der Eiszeiten, Teil 7, Global Circulation Models I

scienceofdoom

Im sechsten Teil ging es um einige der zahlreichen Theorien, die konfuserweise alle unter dem gleichen Namen laufen: die „Milankovitch“-Theorien.

Die Basis all dieser Theorien ist: Obwohl die Änderungen in der Neigung der Erdachse und der Zeitpunkt, in der die Erde der Sonne am Nächsten ist, nicht die Gesamt-Energieeinwirkung der Sonne auf das Klima verändert, verursacht die sich ändernde Verteilung der Energie massive Klimaänderungen über tausende von Jahren. Eine der „klassischen” Hypothesen lautet, dass zunehmende Einstrahlung im Juli bei 65°N die Eisschilde zum Schmelzen bringt. Oder umgekehrt, abnehmende Einstrahlung dort bringt die Eisschilde zum Anwachsen.

Alle hier beschriebenen Hypothesen können ziemlich überzeugend klingen. Das heißt, wenn man sie einzeln für sich betrachtet, klingt jede ziemlich überzeugend – aber wenn man diese „Milankovitch-Theorien“ in ihrer Gesamtheit nebeneinander stellt, klingen sie sämtlich nicht nach viel mehr als nach hoffnungsvollen Gedanken. In diesem Beitrag fangen wir nun an zu betrachten, was GCMs (global circulatio models – kurz "Klimamodelle") dazu tun können, diese Theorien zu falsifizieren. Zu den Grundlagen der GCMs schaue man hier.

Viele Leser dieses Blogs machen sich in verschiedener Weise so ihre Gedanken über GCMs. Aber wie der regelmäßig Kommentare schreibende Leser DeWitt Payne oft sagt: „Alle Modelle sind falsch, aber einige sind nützlich“. Das heißt, keines dieser Modelle ist perfekt, aber einige können etwas Licht auf Klimamechanismen werfen, die wir verstehen wollen. Tatsächlich sind GCMs eine wesentliche Grundlage zum Verständnis vieler Klimamechanismen und zum Verständnis der Wechselwirkungen zwischen verschiedenen Teilen des Klimasystems.

Exkurs: Eisschilde und positive Rückkopplung

Für Anfänger folgt hier ein kleiner Exkurs zu den Eisschilden und zur positiven Rückkopplung. Das Schmelzen und die Neubildung von Eis und Schnee ist unbestreitbar eine positive Rückkopplung im Klimasystem. Schnee reflektiert etwa 60% bis 90% der einfallenden Sonnenstrahlung. Wasser reflektiert weniger als 10% und die meisten Landoberflächen weniger als 25%. Heizt sich eine Region genügend auf, schmelzen Eis und Schnee. Das bedeutet, dass weniger Strahlung reflektiert und mehr Strahlung absorbiert wird, was eine weitere Aufheizung des Gebietes zur Folge hat. Der Effekt „füttert sich selbst“. Es ist eine positive Rückkopplung.

Im jährlichen Zyklus führt dies jedoch nicht zu irgendeiner Art „Runaway“ oder zu einer Schneeball-Erde, weil die Solarstrahlung einen viel größeren Zyklus durchläuft. Über viel längere Zeiträume ist es vorstellbar, dass das (regionale) Abschmelzen von Eisschilden zu mehr (regional) absorbierter Sonnenstrahlung führt, was wiederum mehr Eis zum Schmelzen bringt mit der Folge, dass noch mehr Eis schmilzt. Und umgekehrt gilt das Gleiche für das Anwachsen von Eisschilden. Der Grund, warum dies vorstellbar ist, ist ganz einfach der, dass es der gleiche Mechanismus ist.

Exkurs Ende.

Warum Global Circulation Models (GCM)?

Die einzige Alternative zu GCM’s ist, die Berechnung im Kopf oder schriftlich durchzuführen. Man nehme ein Blatt Papier, plotte den Verlauf der einfallenden Strahlung in allen Breiten während des uns interessierenden Zeitraumes – sagen wir von vor 150 ky bis vor 100 ky (ky = kilo-years = 1000 Jahre) – aufgeschlüsselt nach Jahren, Dekaden oder Jahrhunderten in Abhängigkeit von der Menge des schmelzenden Eises.  Dann bestimme man die neue Albedo für jedes Gebiet. Man berechne die Änderung der absorbierten Strahlung und dann die regionalen Temperaturänderungen. Dann berechne man den neuen Wärmetransport von niedrigen in höhere Breiten in Abhängigkeit vom Temperaturgradienten in der jeweiligen Breite, den transportierten Wasserdampf sowie Regen- und Schneemenge. Man vergesse dabei nicht, die Eisschmelze in hohen Breiten zu verfolgen sowie deren Einfluss auf die Meridional Overturning Circulation (MOC), die einen großen Teil des Wärmetransportes vom Äquator zu den Polen treibt. Dann gehe man zum nächsten Jahr, zur nächsten Dekade oder zum nächsten Jahrhundert und wiederhole das Ganze.

Wie machen sich diese Berechnungen?

Ein GCM benutzt einige fundamentale physikalische Gleichungen wie Energie- und Massengleichgewicht. Es benutzt viele parametrisierte Gleichungen, um Dinge zu berechnen wie den Wärmetransport von der Oberfläche in die Atmosphäre abhängig von der Windgeschwindigkeit, Wolkenbildung, Impulstransport durch den Wind in die Ozeane usw. Was immer wir in einem GCM haben, ist besser als die Berechnungen auf einem Blatt Papier (denn dort wird man die gleichen Gleichungen mit viel geringerer räumlicher und zeitlicher Auflösung verwenden müssen).

Falls uns die oben erwähnten „klassischen” Milankovitch-Theorien interessieren, müssen wir die Auswirkungen einer Zunahme von 50 W/m² (über 10.000 Jahre) bei 65°N herausfinden – siehe Abbildung 1 im Teil V. Welche Auswirkungen hat eine simultane Reduktion im Frühjahr bei 65°N? Heben sich die beiden Effekte gegeneinander auf? Ist die sommerliche Zunahme bedeutender als die Reduktion im Frühjahr? Wie schnell sorgt die Zirkulation für eine Verringerung dieser Auswirkungen? Der Wärmetransport von Äquator zu Pol wird getrieben durch die Temperaturdifferenz – wie jeder Wärmetransport. Heizt sich also die Nordpolarregion infolge schmelzenden Eises auf, wird sich die Zirkulation im Ozean und in der Atmosphäre ändern, und weniger Wärme wird polwärts transportiert. Welche Auswirkungen hat das?

Wie schnell schmilzt ein Eisschild bzw. bildet es sich neu? Können die Zu- und Abnahmen der absorbierten Sonnenstrahlung die massiven Eisvorstöße und –rückzüge erklären? Falls die positive Rückkopplung so stark ist, wie geht dann eine Eiszeit zu Ende und wie kann sie 10.000 Jahre später erneut einsetzen? All dies können wir nur mit einem allgemeinen Zirkulationsmodell GCM abschätzen.

Nun gibt es da jedoch ein Problem. Ein typischer GCM-Lauf erstreckt sich über ein paar Modell-Jahrzehnte oder ein Modell-Jahrhundert. Wir brauchen aber einen GCM-Lauf über 10.000 bis 50.000 Jahre. Also brauchen wir 500 mal höhere Rechenleistung – oder wir müssen die Komplexität des Modells reduzieren. Alternativ können wir ein Modell im Gleichgewicht zu einer bestimmten Zeit in der Geschichte laufen lassen um zu sehen, welche Auswirkungen die historischen Parameter auf die uns interessierenden Änderungen hatten.

Frühe Arbeiten

Viele Leser dieses Blogs sind häufig verwirrt durch meinen Ausdruck „alte Arbeiten“ zur Behandlung eines Themas. Warum nimmt man nicht die aktuellste Forschung?

Weil ältere Studien normalerweise das Problem klarer umreißen und detaillierter beschreiben, wie man sich diesem Problem nähert.

Die jüngsten Studien wurden für Forscher vor Ort geschrieben und setzen den größten Teil der bisherigen Erkenntnisse als bekannt voraus – Erkenntnisse, die jedermann vor Ort bereits hat. Ein gutes Beispiel hierfür ist die Studie von Myhre et al. (1998) zum Thema „logarithmische Formel“ für den Strahlungsantrieb durch zunehmenden CO2-Gehalt. Sie wurde auch im IPCC-Zustandsbericht 2001 erwähnt. Diese Studie hat sehr viele Blogger verwirrt. Ich habe viele Blogbeiträge gelesen, in denen die jeweiligen Autoren und Kommentatoren wegen der fehlenden Rechtfertigung des Inhalts dieser Studieihre die metaphorischen Hände gehoben haben. Es ist aber nicht mehr verwirrend, wenn man mit der Physik von Strahlungstransporten vertraut ist sowie mit den Studien aus den siebziger bis zu den neunziger Jahren, in denen das Strahlungs-Ungleichgewicht als Folge von mehr oder weniger „Treibhausgasen“ berechnet wird. Es kommt eben immer auf den Zusammenhang an.

Wir wollen jetzt einen Spaziergang durch einige Jahrzehnte von GCMs machen. Wir beginnen dazu mit Rind, Peteet und Kukla (1989). Sie umreißen die klassische Denkweise des Problems:

Kukla et al. (1981) beschreiben, wie die orbitalen Konfigurationen anscheinend zu den großen Klimavariationen der letzten 150 Millenien passen. Als Ergebnis dieser und anderer geologischer Studien besteht der Konsens, dass orbitale Variationen  für die Auslösung eiszeitlicher bzw. zwischeneiszeitlicher Bedingungen verantwortlich sind. Der offensichtlichste Unterschied zwischen diesen beiden Regimes, nämlich die Existenz subpolarer kontinentaler Eisschilde scheinen  mit der Sonneneinstrahlung in hohen Breiten der Nordhemisphäre im Sommer korreliert zu sein. Zum Beispiel war die Sonneneinstrahlung im August und September, verglichen mit den heutigen Werten, abgeschwächt, und zwar etwa 116.000 Jahre vor heute (116 ky). Während dieser Zeit begann anscheinend das Wachstum des Eises. Die Sonneneinstrahlung war erhöht um etwa 10.000 Jahre vor heute, während einer Zeit also, in denen sich die Eisschilde rapide zurückzogen (Berger 1978).

Und nun zur Frage, ob Grundlagen-Physik die angenommenen Ursache und Wirkung in Zusammenhang bringen kann:

Sind die solaren Strahlungsvariationen selbst ausreichend, um kontinentale Eisschilde wachsen oder schmelzen zu lassen?

Die Sonneneinstrahlung im Juli bei 50°N und 60°N während der letzten 170.000 Jahre zeigt Abbildung 1, zusammen mit den Werten von August und September bei 50°N (wie der Juli zeigt, traten Fluktuationen bei der Einstrahlung in verschiedenen Breiten in ähnlicher Form auf). Die Spitzen-Variation liegt in der Größenordnung von 10%. Überträgt man dies mit gleicher Prozentzahl auf Änderungen der Lufttemperatur, würden diese in der Größenordnung von 30°C liegen. Das wäre mit Sicherheit ausreichend, um Schnee in den nördlichsten Gebieten von Nordamerika den ganzen Sommer über zu halten, wo die Juli-Temperatur heute nur etwa 10°C über dem Gefrierpunkt liegt. Allerdings ignoriert die direkte Übertragung alle anderen Phänomene, die die Lufttemperatur im Sommer beeinflussen, als da wären Wolkenbedeckung und Albedo-Variationen, langwellige Strahlung, Flüsse am Boden und Advektion. 

Verschiedene Energiebilanz-Klimamodelle wurden verwendet, um abzuschätzen, wie groß die Abkühlung in Verbindung mit veränderten Orbitalparametern sein würde. Während sich mit dem Beginn von Eisausdehnung die Oberflächen-Albedo verändert und eine Rückkopplung zur Klimaänderung liefern wird, müssen die Modelle auch grobe Schätzungen einbeziehen, wie die Eisbedeckung sich mit dem Klima ändert. Mit der geeigneten Wahl von Parametern, von denen einige durch Beobachtungen gestützt sind, kann man die Modelle dazu bringen, die großen Klimaänderungen von Eis- und Zwischeneiszeiten zu simulieren.

Allerdings berechnen diese Modelle aus Prinzip nicht all die oben beschriebenen verschiedenen Einflüsse auf die Lufttemperatur, und sie enthalten auch keinen hydrologischen Zyklus, der es zulassen würde, dass sich eine Schneedecke bildet oder ausdehnt. Die tatsächlichen Prozesse, unter denen sich den Sommer über eine Schneedecke halten kann, involvieren komplexe hydrologische und thermische Einflüsse, für welche die einfachen Modelle nur grobe Annäherungen liefern können.

Sie gehen dann näher auf die praktischen Probleme ein, die sich aus der Verwendung von GCMs für Läufe über Tausende von Jahren ergeben, und die wir oben angesprochen haben. Das Problem wird angegangen durch die Verwendung vorgegebener Werte für bestimmte Parameter und durch Verwendung eines groben Gitters von 8 mal 10 Grad und 9 vertikalen Schichten.

Die verschiedenen Modellläufe der GCMs sind typisch für dieses Vorgehen, GCMs zu verwenden, um „das Zeug herauszufinden“ – man versucht, mit verschiedenen Läufen und verschiedenen Änderungen der Parameter zu erkennen, welche Variationen die größten Auswirkungen haben und welche Variationen, falls überhaupt welche, zu den realistischsten Antworten führen:

Wir haben also das GCM des GISS für eine Reihe von Experimenten verwendet, in welchen orbitale Parameter, die atmosphärische Zusammensetzung und die Wassertemperaturen verändert worden sind. Wir untersuchen, wie die verschiedenen Einflüsse die Schneebedeckung und Eisschilde beeinflussen, und zwar in den Regionen der Nordhemisphäre, wo während des letzten glazialen Maximums (LGM) Eis gelegen hatte. Soweit wir wissen, ist das GCM generell nicht in der Lage, den Beginn des Wachstums der Eisschilde zu simulieren oder Eisschilde auf dem Niveau des Meeresspiegels, unabhängig von den verwendeten orbitalen Parametern oder der Wassertemperatur.

Und das Ergebnis:

Die Experimente zeigen, dass es eine große Diskrepanz gibt zwischen den Modell-Reaktionen auf Milankovitch-Störungen und der geophysikalischen Beweise des Beginns der Bildung eines Eisschildes. Da das Modell das Wachstum oder den Erhalt von Eisschilden während der Zeit der größten Reduktion der Sonneneinstrahlung in hohen Breiten nicht simulieren konnte (120.000 bis 110.000 Jahre vor heute), ist es unwahrscheinlich, dass es dies zu irgendeiner anderen Zeit innerhalb der letzten vielen hunderttauend Jahre vermocht hätte.

Wenn die Modelläufe korrekt sind, zeigt dies, dass das Wachstum des Eises in einer extrem Wärme absorbierenden Umgebung stattfand. Folglich bedurfte es irgendeiner komplizierten Strategie oder auch irgendwelcher anderen Klimatreiber zusätzlich zum Einfluss der orbitalen Variation (und CO2-Reduktion). Dies würde implizieren, dass wir die Ursache von Eiszeiten und den Zusammenhang mit Milanlovitch nicht wirklich verstehen. Falls das Modell nicht annähernd sensitiv genug auf Klimaantriebe anspricht, kann das Implikationen auf Projektionen künftiger Klimaänderungen haben

Das grundlegende Modellexperiment hinsichtlich der Fähigkeit von Milankovitch-Variationen, selbst Eisschilde in einem GCM zu bilden (Experiment 2), zeigt, dass im GISS-GCM nicht einmal übertriebene Strahlungsdefizite im Sommer dazu ausreichen. Lässt man ausgedehnte Eisschilde in einer Höhe von 10 m ü. NN eingehen sowie eine CO2-Reduktion um 70 ppm, Zunahme des Meereises bis zu vollen Eiszeitbedingungen und Wassertemperaturen, die auf CLIMAP-Schätzungen vor 18.000 Jahren oder noch niedriger reduziert wurden, ist das Modell kaum in der Lage, diese Eisschilde in begrenzten Gebieten vor dem Schmelzen zu bewahren. Wie wahrscheinlich ist es, dass diese Ergebnisse den aktuellen Stand der Dinge repräsentieren?

Das waren die GCMs des Jahres 1989.

Phillips und Held (1994) hatten im Wesentlichen das gleiche Problem. Das ist der berühmte Isaac Held, der extensiv über Klimadynamik gearbeitet hat sowie über Wasserdampf-Rückkopplung und GCMs. Er betreibt einen sehr lesenswerten exzellenten Blog.

Während paläoklimatische Aufzeichnungen deutliche Beweise zur Stützung der astronomischen oder Milankovitch-Theorie von Eiszeiten liefern (Hays et al. 1976), sind die Mechanismen, mit denen orbitale Änderungen das Klima beeinflussen, immer noch ziemlich schlecht verstanden. Für diese Studie nutzen wir das gemischte Atmosphäre-Ozean-Modell [the atmosphere-mixed layer ocean model]. Bei der Untersuchung der Sensitivität dieses Modells auf unterschiedliche Kombinationen orbitaler Parameter haben wir drei numerische Experimente miteinander verglichen.

Sie beschreiben die Vergleichsmodelle:

Angefangen haben wir mit der Auswahl der beiden Experimente, die vermutlich die größten Unterschiede hinsichtlich des Klimas zeitigen unter Vorgabe der Bandbreite von berechneten Variationen von Parametern, die sich während der letzten paar hunderttausend Jahre ereignet haben. Die Exzentrizität wird in beiden Fällen mit 0,04 gleich gesetzt. Das ist deutlich größer als der gegenwärtige Wert von 0,016, aber vergleichbar mit dem, was es vor 90.000 bis 150.000 Jahren gegeben hat.

Im ersten Experiment werden das Perihel zur Sommer-Sonnenwende der Nordhemisphäre und die Neigung auf den hohen Wert von 24° gesetzt. Im zweiten Fall liegt das Perihel zum Zeitpunkt der Wintersonnenwende auf der Nordhemisphäre, und die Neigung entspricht 22%. Perihel und Neigung begünstigen beide warme Sommer der Nordhemisphäre im ersten Fall und kühle nördliche Sommer im zweiten Fall. Diese Experimente werden jetzt jeweils mit WS bzw. CS bezeichnet.

Dann haben wir eine weitere Berechnung durchgeführt, um zu bestimmen, wie viel der Differenz zwischen diesen beiden Integrationen der Verschiebung des Perihel geschuldet ist und wie viel davon der Änderung der Neigung. In diesem dritten Modell liegt das Perihel zur Sommersonnenwende, aber die Neigung beträgt nur 22°. Die Exzentrizität ist immer noch mit 0,04 angesetzt. Dieses Experiment wird im Folgenden als W22 bezeichnet.

Aber traurigerweise:

Trotz der großen Temperaturänderungen auf dem Festland erzeugt das CS-Experiment keinerlei neue Regionen mit permanenter Schneebedeckung auf der Nordhemisphäre. Die gesamte Schneedecke schmilzt im Sommer vollständig. Folglich ist das Modell, so wie derzeit getrimmt, nicht in der Lage, den Beginn der Bildung von Eisschilden allein aufgrund orbitaler Störungen zu simulieren. Dies ist konsistent mit dem Ergebnissen von Rind mit einem GCM (Rind et al. 1989).

Im nächsten Artikel schauen wir auf günstigere Ergebnisse im ersten Jahrzehnt dieses Jahrhunderts.

http://scienceofdoom.com/2013/11/23/ghosts-of-climates-past-part-seven-gcm-i/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/





Das Rätsel der Eiszeiten – Teil V: Änderungen der Ekliptik und der Präzession

scienceofdoom

In Teil IV haben wir angefangen, auf die Änderungen der Sonneneinstrahlung infolge orbitaler Effekte zu schauen.

Die Exzentrizität selbst hat eine vernachlässigbare Auswirkung auf die Sonneneinstrahlung. Änderungen der Ekliptik und der Präzession ändern die (räumliche und zeitliche) Verteilung der Sonneneinstrahlung, aber nicht die jährliche Gesamtmenge.

Die jährliche Variation für jede Jahreszeit (D…N; Dezember…November) bei 65°N sieht so aus:

Abbildung 1

Die jährliche Variation ist geringer als die Variationen von Tag zu Tag (vgl. die Abbildungen 5 und 6 in Teil IV). Die korrespondierende Graphik für 55°N sieht so aus:

Abbildung 2

Natürlich bedeutet eine höhere Sonneneinstrahlung in einem Teil des Jahres wegen der Ekliptik geringere Sonneneinstrahlung im „entgegen gesetzten“ Teil des Jahres.

In den Graphiken oben erkennt man, dass zum Höhepunkt der Eemian-Zwischeneiszeit die Strahlung im Juni, Juli, August (JJA) minimal ist, im März, April, Mai (MAM) einen Aufwärtstrend zeigt bis zum Maximum, im Sept./Okt./Nov. (SON) abwärts weist nach diesem Spitzenwert und im DJF sehr niedrig liegt und sich nicht groß ändert, weil es in hohen Breiten im Winter nicht viel Einstrahlung gibt.

Wie verhält es sich nun mit der jährlichen Variation? Dazu wollen wir in die Periode um die Eemian-Zwischeneiszeit zoomen. Die obere Graphik zeigt die tägliche mittlere Einstrahlung in vier verschiedenen Jahren, und die untere Graphik zeigt das jährliche Mittel pro Jahr:

Abbildung 3

Und zum Vergleich hier die jährliche Variation während der letzten 500.000 Jahre:

 

Abbildung 4

Die gleichen Daten für 55ºN:

Abbildung 5

Abbildung 6

Wie zu erwarten war, tauchen die Maxima und Minima auf 55°N und 65°N zur gleichen Zeit auf. Was zwischen den beiden Breitengraden unterschiedlich ist, ist die Änderung der Zeitverlauf der jährlichen Einstrahlung auf einer bestimmten Breite. Die Einstrahlung bei 65°N variiert um 7 W/m² während der letzten 500.000 Jahre, während die Variation bei 55°N nicht einmal 3 W/m² beträgt. Zum Vergleich, die Schwankung bei 45°N beträgt weniger als 1 W/m².

Um die 30.000 Jahre um die Eemian-Zwischeneiszeit betrugen die Variationen:

  • 65ºN – 5.5 W/m²
  • 55ºN – 2.2 W/m²
  • 45ºN – 0.3 W/m²

Und wenn wir die stärkste Zunahme von vor 145.000 bis vor 135.000 Jahre nehmen, erhalten wir einen Wert pro Jahrhundert von:

  • 65ºN – 40 mW/m² pro Jahrhundert
  • 55ºN – 25 mW/m² pro Jahrhundert
  • 45ºN –   2 mW/m² pro Jahrhundert
  • (und in der südlichen Hemisphäre gab es gleichlaufende Reduktionen der Einstrahlung während dieses Zeitraumes)

Und jetzt zum Vergleich: Der „Strahlungsantrieb” infolge zunehmender Konzentrationen von CO2 und anderen „Treibhausgasen“ in der Atmosphäre vor allen Rückkopplungen (d. h. alles andere bleibt gleich) liegt bei etwa 1,7 W/m² oder 1,3 W/m² pro Jahrhundert.

Dies galt natürlich angewendet auf den gesamten Globus, aber in jedem Falle lagen die Änderungsraten in jüngster Zeit etwa 30 bis 50 mal höher als die Rate der Zunahme radiativer Änderungen in hohen Breiten während einer der Schlüssel-Übergänge in unserem Klima der Vergangenheit.

Diese Werte und Vergleiche zielen nicht darauf ab, irgendeine Theorie zu befürworten oder zu verwerfen, sondern sollen einfach nur dazu dienen, die Werte, um die es hier geht, besser zu verstehen.

Natürlich sind jährliche Änderungen kleiner als jahreszeitliche Änderungen. Schauen wir also zurück auf die jahreszeitlichen Werte von vor 120.000 bis 150.000 Jahren:

Abbildung 7

Und wir wollen die Änderungen noch leichter verständlich machen, indem wir den Anomalie-Plot betrachten (Signal minus dem Mittel für jede Jahreszeit):

Abbildung 8

Es gibt vergleichsweise ziemlich große Änderungen in jeder Jahreszeit. Zum Beispiel nimmt die MAM-Zahl um 60 W/m² von vor 143.000 bis vor 130.000 Jahren zu, was fast 0,5 W/m² pro Jahrhundert ausmacht, was praktisch dem jüngsten Strahlungsantrieb durch Treibhausgase entspricht.

Das Problem, wenn man nur auf MAM blickt – und das ist der Grund, warum ich all diese Ergebnisse geplottet habe – ist Folgendes: Falls die Zunahme der Einstrahlung in diesen Monaten zu einer schnelleren Eisschmelze am Ende des Winters führt, bedeutet dann nicht die gleich große Abnahme der Einstrahlung in den Herbstmonaten SON stärkere Eisbildung, das dann bis zum Frühjahr bestehen bleibt? In jedem Jahr gibt es Jahreszeiten, also muss man das ganze Jahr betrachten.

Und falls es wirklich ein so klares Argument dafür gibt, dass eine Jahreszeit eine Art dominierende Kraft ist im Vergleich mit einer anderen Jahreszeit (eine starke Nicht-Linearität), warum gibt es dann keinen Konsens darüber, welche das ist (zusammen mit ein paar Beweisen)?

Huybers & Wunsch (2005) schrieben:

Nimmt man diese beiden (Milankovitch und Chaos) Perspektiven zusammen, gibt es gegenwärtig mehr als 30 unterschiedliche Modelle der sieben Eiszeitzyklen zum Ende des Pleistozäns.

Zuletzt kommt hier noch für alle Interessierten eine typische Spektralverteilung der Sonneneinstrahlung an der Obergrenze der Atmosphäre TOA (normalisiert). In diesem Falle hat jede Jahreszeit einen separaten Verlauf, aber es gibt keinen großen Unterschied zwischen jeder Periode, so dass sich die Plots weitgehend überlagern. Die 3 vertikalen violetten Linien repräsentieren (von links nach rechts) die Häufigkeiten von vor 41.000; 23.000 und 19.000 Jahren:

Abbildung 9

In weiteren Artikeln werden wir die spektralen Charakteristiken der Eiszeit-Aufzeichnungen betrachten, weil die Kenntnis der spektralen Charakteristika orbitaler Effekte auf die Einstrahlung wichtig ist.

Link: http://scienceofdoom.com/2013/10/17/ghosts-of-climates-past-part-five-obliquity-precession-changes/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/