Lassen sich zukünftige Erdtemperaturen berechnen?

Die Datengrundlagen von SB sind Zeitreihen des Berylliumisotops Be10 sowie des Kohlenstoffisotops C14. Die Leitidee der Autoren bestand darin, ihre auf Fourier- und Waveletanalysen basierende Vorhersagemethode an Hand von jeweils 500 Jahreszeiträumen an Hand der bekannten Vergangenheitsdaten zu evaluieren. Da dort die Resultate befriedigend waren, sahen es die Autoren als berechtigt an, eine Vorausberechnung für die 500 noch vor uns liegenden Jahre zu erstellen. Das Ergebnis dieser Berechnung zeigt Bild 1 (Fig. 4 [1]).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild1-1.jpg

Bild 1: Sonnenaktivität (linke Skala) und Irradianz (rechte Skala) von 1650 bis zum Jahre 2500.

Die Arbeit von SB bestätigen die im Buch von Vahrenholt/Lüning [2] geschilderte Hypothese vom Einfluss der Sonne auf terrestrische Klimaentwicklungen, wobei der hier waltende Mechanismus noch unbekannt ist und von SB auch nicht näher untersucht wird. Es handelt sich bei der Arbeit von SB um eine statistische Analyse, der kein Modell des untersuchten Phänomens zugrunde liegt. Da die Sonnenaktivität in der Vergangenheit gut mit den Erdtemperaturen korreliert, was sich besonders deutlich in allen vergangenen Temperaturminima zeigt, erlaubt diese Feststellung eine Extrapolation in die Zukunft, soweit auch dort der gleiche Kausalzusammenhang besteht und sich zudem sie Sonnenperiodizitäten fortsetzen. Infolge des relativ langen Beobachtungszeitraums (ca. 10.000 Jahre), in der diese Prämissen als zutreffend überprüft werden konnten, erscheinen nur weitere 500 Jahre als eine verhältnismäßig sichere Vorhersagespanne.

Die Publikation von SB ist auch für uns Autoren von großem Interesse. In der EIKE News vom 1.Nov.2013 (hier) besprachen wir unsere Veröffentlichung [3] , in welcher wir zeigen, dass alle Klimaänderungen seit ca. 1750 bis heute durch periodische (natürliche) Vorgänge bewirkt werden. Nichtperiodische Vorgänge, wie etwa eine Erwärmung durch die stetige Zunahmen von CO2 in der Atmosphäre, können danach höchstens in der Größe von 0,1 bis 0,2 °C bei Verdopplung des CO2 Gehaltes (wie bis zum Jahr 2100 erwartet) wirksam werden.

Wir fanden, dass 2 Zyklen mit Perioden ~240 Jahre und ~65 Jahre fast vollständig und globalweit die Klimaänderungen in gleicher Weise bestimmen. Zum ~ Zeichen ist anzumerken, dass die Periodendauern mit der Zeit variieren, was auch bei den später geschilderten Vergleichen zu berücksichtigen ist. Alle anderen Zyklen sind schwach gegen diese, und nichtperiodische Einflüsse, wie etwa von CO2, spielen offenbar keine Rolle. Der ~65 Jahr Zyklus ist ein alter Bekannter, nämlich sofort mit der „atlantisch-pazifischen Oszillation“ (AMO/PDO) zu identifizieren, welche sich 1400 Jahre zurückverfolgen lässt. Die AMO/PDO hat keinen äußeren Antrieb sondern stellt als „Eigendynamik“ einen terrestrischen „Ozillator“ dar.

Obwohl die mathematische Analyse der historischen Temperaturaufzeichnungen eine starke ~240 Jahr Periode anzeigt, mussten wir diese anderweitig nachprüfen. Bei der begrenzten Länge der historischen Temperaturaufzeichnungen von nur etwa 250 Jahren kann eine ~240 Jahr Periode natürlich nicht zweifelsfrei nachgewiesen werden. Die Rekonstruktion der Temperatur der letzten 2000 Jahre aus den Daten des Spannagel-Stalagmiten zeigte aber ebenfalls diese Periodizität als bei weitem die stärkste Klimavariation seit ca. dem Jahre 1100.

Die Existenz der starken ~240 Jahr Periode, die die hauptsächlichen Klimaänderungen beschreibt, ist in Diskussionen trotzdem in Zweifel gezogen worden. Obwohl gerade die Temperaturen aus den Stalagmitendaten mit solchen, die aus Nordatlantik Sedimenten gewonnen wurden, gut übereinstimmen. Überdies ist der „de Vries Zyklus“ der Sonne, der etwa diese Periodenlänge hat (~210 Jahre), schon lange als bestimmender Klimaeinfluss bekannt. Eine Bestätigung für die Existenz und den dominierenden Einfluss des von uns gefundenen ~240 Jahr Zyklus liefert nun auch die Veröffentlichung von SB, die ebenfalls den maßgebenden Einfluss des de Vries Zyklus betont.

Interessant bei der Arbeit von SB ist auch die Waveletanalyse der Sonnenaktivität  Abb. 2  (Fig. 1b [1]). 

 http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild2-1.jpg

Bild 2: Waveletspektrum, die rechte Skala gibt die Stärke der Periodizität (in log2) an. Die schwarze Linie ist der "cone of influence", außerhalb von ihm werden die Ergebnisse allmählich unsicher. Der im Text erwähnte de Vries Zyklus, der in den letzten 1000 Jahre zu den stärkksten Periodizitäten gehört, ist deutlch erkennbar.

Waveletanalysen ermöglichen im Gegensatz zur Fourieranalyse zusätzlich die Angabe, zu welcher Zeit welche Oszillationen auftreten. Die Waveletanalyse der Sonnenaktivität von SB bestätigt unsere Waveletanalyse der Spannagel Daten. Die ~240 Jahr Oszillation setze erst vor ca. 1000 Jahren ein. Sie wiederholt sich nach Bild 2 offenbar in regelmäßigem Abstand von grob 2500 Jahren.

Zusammenfassend kann festgestellt werden, dass die Analyse der Sonnenaktivität von SB die von uns aus Temperaturaufzeichnungen und Stalagmitendaten ermittelten Periodizitäten bestens bestätigt. Der solare „de Vries Zyklus“ zusammen mit der AMO/PDO bestimmen praktisch vollständig die Klimaverläufe der letzten Jahrhunderte und der kommenden Jahrhunderte. Insbesondere ist die starke Erwärmung am Ende des 20. Jahrhunderts dem Zusammentreffen des de Vries und des AMO/PDO Maximums zuzuschreiben. Ein wesentlicher Einfluss von CO2 auf die Erdtemperatur muss daher ausgeschlossen werden, was mit den sich kaum ändernden spektralen Eigenschaften des CO2 bei atmosphärischer CO2 Konzentrationserhöhung bestens vereinbar ist.

Für die derzeitige „Stagnation“ der Erdtemperatur ist der AMO/PDO Zyklus verantwortlich, der sein Maximum inzwischen verlassen hat.  Der de Vries Zyklus ist derzeit etwa an seinem Maximum und ändert seinen Einfluss nur sehr langsam. Da das nächste AMO/PDO Minimum um 2035 liegt, ist zumindest bis dahin weiter mit absinkenden Temperaturen zu rechnen. Die Berechnung von SB sagt überdies ein Temperaturminimum um das Jahr 2100 voraus, das durchaus dem der kleinen Eiszeit Ende des 17. Jahrhundert gleichkommen könnte. Sollte diese Vorhersage zur Realität werden, was nicht unwahrscheinlich ist, darf jetzt schon über das Schicksal der AGW – Hypothesen spekuliert werden.

 

Quellen:

[1] F. Steinhilber and J. Beer, Prediction of solar actibvity for the next 500 years, Jor. Geophys. Res. Space Phys., Vol. 118, 1861-1867 (2013)

[2] F. Vahrenholt, S. Lüning, Die kalte Sonne, Hoffmann und Campe Verlag

[3] "H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, clim. past, 9, 447-452, 2013" (hier)

 

Zu den Autoren:

Prof. Dr. Horst-Joachim Lüdecke (Physiker) lehrte nach Forschungs- und Industrietätigkeit an der HTW des Saarlandes. Fachveröffentlichungen in Kernphysik, Strömungsmechanik, Chemietechnik und Klimaphysik sowie ein Fachbuch und zwei Klimasachbücher (hier). Er ist Pressesprecher von EIKE.

Prof. Dr. Carl Otto Weiss (Physiker) war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er ist EIKE Mitglied.

Related Files




Das Paradigma der modernen Naturwissenschaft und die Hypothese der anthropogenen globalen Erwärmung

Geschichtliches

Unter „Paradigma“ versteht man eine grundsätzliche Denkweise, Lehrmeinung oder Weltanschauung. Der Begriff wurde von dem Göttingen Physiker Georg Christoph Lichtenberg (1742-1799) eingeführt. Insbesondere unterliegen die modernen Naturwissenschaften einem Paradigma. Der Wissenschaftstheoretiker Thomas S. Kuhn (1922-1996) definierte ein wissenschaftliches Paradigma (hier stark vereinfacht wiedergegeben) wie folgt:
– was beobachtet, gemessen und überprüft wird
– die Art und Weise der Fragen, die im Zusammenhang mit dem untersuchten Gegenstand oder Phänomen gestellt werden
– die Interpretation der Ergebnisse einer wissenschaftlichen Untersuchung
Die Überwindung der antiken und mittelalterlichen Physik verdanken wir dem Philosophen Wilhelm von Ockham 1288-1347) und dem italienischen Physiker Galileo Galilei (1564-1642). Ockham formulierte das Sparsamkeitsprinzip für Hypothesen „entia non sunt multiplicanda präter necessitatem“ (Die Zahl der Hypothesen ist nicht über das Notwendige hinaus zu erweitern). Nachfolgend, frei nach Wikipedia, ein Anschauungsbeispiel für dieses Prinzip:
Nach einem Sturm ist ein Baum umgefallen. Aus “Sturm“ und “umgefallener Baum“ ist die einfache Hypothese ableitbar, dass der Baum vom Sturm umgeworfen wurde. Diese Hypothese erfordert nur die eine Annahme, dass der Wind den Baum gefällt hat, nicht ein Meteor oder ein Elefant. Ferner ist bereits ein bewährter Mechanismus bekannt, nämlich die Kraft, die der Wind auf einen Baum ausübt. Die alternative Hypothese “der Baum wurde von wilden, 200 Meter großen Außerirdischen umgeknickt“ ist laut Ockhams Hypothesensparsamkeit (auch als Ockham’s Rasiermesser bezeichnet) weniger hilfreich, da sie im Vergleich zur ersten Hypothese mehrere zusätzliche Annahmen erfordert. Zum Beispiel die Existenz von Außerirdischen, ihre Fähigkeit und ihren Willen, interstellare Entfernungen zu bereisen, die Überlebensfähigkeit von 200 m hohen Wesen bei irdischer Schwerkraft usw. Solange nicht anderweitige zwingende Gründe dagegen sprechen, ist daher an der EINFACHSTEN Hypothese von der Sturmkraft festzuhalten.
Um Missverständnisse zu vermeiden: Das Ockham-Prinzip schließt keine Hypothese aus oder verbietet sie gar. Jede Hypothese kann weiterhin untersucht werden. Das Entscheidende der Forderung Ockhams ist nur, dass der EINFACHSTEN Hypothese – falls eine solche existiert und sie das fragliche Phänomen zu beschreiben vermag – der VORZUG zu geben ist. Dies so lange, wie diese einfachste Hypothese nicht zu Gunsten einer anderen Hypothese widerlegt wurde.
Von Galilei wurde schließlich in der Physik die absolute Priorität der Messung und des Experiments vor der Theorie oder Spekulation eingeführt. Anstatt der Autorität des Aristoteles zu folgen, der die Fallgeschwindigkeit auf das Gewicht des fallenden Körpers bezog (diese Auffassung hatte gut 2000 Jahr lang Gültigkeit), maß Galilei einfach die Orts- gegen die Zeitzuwächse von fallenden Körpern und fand das moderne Resultat, dass die Fallgeschwindigkeit (ohne Luftreibung) weder von Form noch vom Gewicht des fallenden Körpers abhängt.
In diesem Zusammenhang sei daran erinnert, dass bereits der berühmte Staufer-Kaiser Friedrich II (1194-1250) lange vor Galilei das moderne narurwissenschaftliche Paradigma des Primats der Beobachtung bzw. der Messung in seinen medizinischen und naturkundlichen Forschungen befolgte. Er war sich dabei freilich der enormen Bedeutung seines Vorgehens nicht bewusst. Sein Buch „De arte venandi cum avibus (von der Kunst mit Vögeln zu jagen)“ basierte AUSSCHLIEßLICH auf sorgfältiger Naturbeobachtung. Sein Vorgehen war ein (zu früher) Bruch mit der mittelalterlichen Vorgehensweise. Er unterließ – für die damalige Zeit sensationell und anstößig – die üblichen philosophischen Spekulationen sowie das Zitieren von Aristoteles. Noch bis in die Neuzeit hinein war sein Buch über die Falkenjagd als Standardwerk im Gebrauch.

Das Paradigma der modernen Naturwissenschaft und die AGW-Hypothese

Einstein wurde bekanntlich wegen seiner Relativitätstheorie (RT) von Vertretern der „deutschen Physik“ mit folgendem Argument angegriffen: „Bereits Hunderte hochrangige Theoretiker haben die RT widerlegt“. Seine erstaunte Antwort lautete: „Wieso Hunderte, eine Widerlegung würde reichen“. Aus dieser Antwort geht das Paradigma der modernen  Naturwissenschaft hervor: Eine physikalische Theorie ist gemäß aktuellem Kenntnisstand falsch, wenn sie EINMAL widerlegt wurde. Für eine Widerlegung ist es heute üblich, dass sie in einer begutachteten Fachzeitschrift erscheint und in ihr natürlich keine gravierenden Fehler auffindbar sind. Weitere Widerlegungen sind im Prinzip überflüssig und höchstens pädagogisch hilfreich.
Von der „postmodernen“ Klimawissenschaft der AGW-Vertreter ist dieses immer noch gültige Paradigma inzwischen längst aufgegeben worden. Statt dessen werden bevorzugt:
1) Ein angeblicher Konsens von Fachleuten, den es zwar in der Realität nicht gibt (hier), der aber von willfährigen Medien immer wieder nachgeplappert und von der unterstützenden Politik wie eine Monstranz vorangetragen wird. Selbst wenn es einen Konsens gäbe, wäre er für die wissenschaftliche Wahrheit bedeutungslos.
2) „Widerlegungen“ unbequemer Fachpublikationen durch „cherry picking“ von unbedeutenden Fehlern (solche sind so gut wie in jeder, sogar den besten Arbeiten aufzufinden), die mit dem Kernpunkten der Arbeit nichts zu tun haben, aber von den Kritikern überhöht werden und die Arbeit angeblich wertlos machen sollen. Dieses Prinzip wird regelmäßig bei unliebsamen Arbeiten angewendet, so dass ein uns unbekannter US-Blogger die folgende hübsche Charakterisierung dazu verfasste.
The paper will be thoroughly refuted. I do not know as yet by who, or on what grounds, or where the definitive refutation paper will appear. But it will be refuted and dismissed in no time, never to be talked about again (except by “deniers“ and “flat-earthers“). That is thankfully the way we operate in climate science. Trust us, we’re scientists. Everything is under control. Nothing to see here, move on.
3) Komplettes Ignorieren von unliebsamen Fachpublikationen, von gegenteiligen Fachkollegen-Meinungen spwie Vermeiden öffentlicher Diskussion. Hier tut sich insbesondere die Politik hervor. Es kann kommen, was wolle, die Politik nimmt Fakten nicht zur Kenntnis und wundert sich dann noch über zunehmende Politikverdrossenheit. Das „Argument“ ist dabei stets unangreifbar formal: Man sei leider fachunkundig und vertraue ganz dem Weltklimarat (IPCC). Na dann – gute Nacht!Der Politik dürfte wohlbekannt sein, dass das IPCC ein Verein von Aktivisten ist, der von einem indischen Eisenbahningenieur geleitet wird. Die meisten Publikationen desIPCC werden nicht einmal von (Advokaten)Fachleuetn, sondern von grün-ideologischen Laien verfasst. Dies belegen die exzellent recherchierten Bücher der kanadischen Journalistin Donna Lafromboise.
Mit dem Abstellen des eigenen Denkens seitens der maßgebenden Politiker und fast aller Abgeordneten des deutschen Bundestages verfolgt die deutsche Politik eine intellektuelle Marschlinie, deren Befolgung die frühe Menschheit auf alle Tage in der Steinzeit belassen hätte. Insbesondere vor ehemaligen Umweltministern wie Angela Merkel, Röttgen und Altmeier ist die Aufklärung, also das eigene Nachdenken und die eigenständige Überprüfung der Faktenbasis ihrer Politik definitiv spurlos vorübergegangen – zum Schaden des des deutschen Volkes und ihres geleisteten Amtseides.
Wir wollen nunmehr die AGW-Hypothese unter dem Kriterium des in allen anderen Disziplinen der Naturwissenschaft (außer einem Teil der Klimaphysik) immer noch gültigen Paradigma betrachten. Dazu seien zuerst die wichtigsten, unbestrittenen Fakten aufgezählt:
I) Bereits für die letzten 2000 Jahre sind aus Proxydaten (Baumringen, Stalagmiten, Sedimenten, Eisbohrkernen usw.) Temperaturen und Temperaturänderungen belegt, die in vielen Fällen diejenigen des 20. Jahrhunderts an Stärke und Geschwindigkeit übertrafen (hier). Vor dieser Zeit, etwa zu Ende der Weichsel-Kaltzeit waren die Variationen noch weit stärker.
II) Es gibt bis heute keine begutachtete Facharbeit, die einen maßgebenden Einfluss des anthropogenen CO2 auf Werte der globalen Mitteltemperatur belegt.

  1. III) Alle Prognosen sowie die Aussagen des IPCC und meinungsverwandter Institute wie beispielsweise des Potsdamer Instituts für Klimaforschungsfolgen (PIK) über die bisherige und die zukünftige Temperaturentwicklung basieren auf Klima-MODELLEN, d.h. auf Theorie, nicht auf Messungen.
    IV) Klimamodelle konnten die bisherige Temperaturentwicklung nicht nachvollziehen (hier).

Die AGW-Hypothese verstösst (s. I) zunächst gegen das Prinzip von Ockham. Die gemäß Ockham vorzuziehende Hypothese ist die natürliche Variabilität von Temperaturen und aller Klimata auf dieser Erde – insbesondere auch zur aktuellen Zeit. Die AGW-Hypothese verstösst weiterhin (s. II bis IV) gegen das aktuelle naturwissenschaftliche Paradigma, weil die Theorie (Klimamodelle) den Messungen vorgezogen werden und weil Klimamodelle die Messungen noch nicht einmal wiedergeben können. Um Missverständnisse zu vermeiden: Klimamodelle können wertvolle Forschungshilfsmittel sein. Sie haben nur nichts bei Prognosen oder Projektionen der Klimazukunft zu suchen. In diesen Fällen ist ihre Anwendung tiefstes Mittelalter und die Ergebnisse so wertvoll wie mittelalterliche Syllogismen.
In diesem Zusammenhang sei nebenbei daran erinnert: Der Direktor des PIK, Prof. Hans-Joachim Schellnhuber, besitzt die Chuzpe, seine „Große Transformation (= Ökodiktatur, weil nur unter Beseitigung demokratischer Spielregeln möglich) mit dem kuriosen sachlichen Unsinn eines zu erreichenden „Zwei-Grad-Ziels“ der Öffentlichkeit anzudienen. Er ist dabei – pikanterweise – gleichzeitig Mitautor eines begutachteten Fachaufsatzes in dessen Zusammenfassung nachgelesen werden kann, dass im Beobachtungszeitraum des 20. Jahrhunderts keine maßgebende globale Erwärmung auffindbar ist (hier). Dieser Widerspruch wurde schon mehrfach in den EIKE-News thematisiert – ohne Reaktionen, Recherchen oder gar Protesten der Medien und der verantwortlichen Politik ob dieses eklatanten Widerspruchs des „Klimaberaters“ unserer Kanzlerin. Dies belegt mustergültig die Qualität des kritischen Geisteszustandes der deutschen Intelligenz. Die Autoren wissen sehr wohl, dass Anspielungen auf die braune Vergangenheit hierzulande verpönt sind. Es ist aber auch beim besten Willen nicht zu übersehen, dass die intellektuelle Leere (Wohlstandsverwahrlosung), Feigheit, Profitgier und das Wegducken vor den Machenschaften der Ökorattenfänger aktuell ähnlichen Mustern folgen wie vor 70 Jahren gegenüber denen mit brauner Farbe.
Wie sieht es nun mit der dritten wichtigsten Säule, den wissenschaftlichen Facharbeiten aus, welche die AGW-Hypothese falsifizieren bzw. eine Falsifizierung zumindest stark nahelegen? Gibt es sie? Tatsächlich gibt es sogar bereits eine ganze Reihe solcher Publikationen, wobei, wie schon betont wurde, bereits eine einzige ausreichen würde. Es sind dies die nachfolgend aufgezählten Arbeiten (Vollständigkeit ist dabei nicht angestrebt). In einer Kurzbeschreibung wird das Ergebnis dieser Arbeiten jedesmal in wenigen Sätzen charakterisiert. Zur Erläuterung ist vorab anzumerken. Die Klimasensitivität des CO2 ohne Rück- oder Gegekoppelungseffekte wird in der Fachliteratur zwischen 0,45 °C (hier) und 1,1 °C (die 1,1 °C sind vom IPCC nur indirekt vermittels einer Berechnungsformel im 2001-Bericht angegeben) genannt. Unter „Klimasensitivität“ wird die globale Temperaturerhöhung verstanden, die sich bei (hypothtetisch) verdoppelter CO2-Konzentration der Atmosphäre einstellt. Im Folgenden soll der Bereich zwischen 0,45 °C und 1,1 °C hier kurz als „Normalbereich“ bezeichnet werden. Er ist unbedenklich und kann zu keinem Klima-Katastrophenszenario Anlass geben. Nur in fiktiven Klimamodellen können Werte bis weit über 2 °C auftreten.

Fachpublikationen welche die AGW-Hypothese widerlegen

R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011) (hier). Kurzbeschreibung: In der Arbeit wird an Hand von Messungen nachgewiesen, dass die Klimasensitivität des CO2 kleiner ist als der Normalbereich.
R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011). Kurzbeschreibung: In der Arbeit werden ähnlich wie bei Lindzen/Choi negative Rückkoppelungseffekte nachgewiesen, die eine Klimasensitivität kleiner als der Normalbereich belegen.
R.W. Spencer, and W.D. Braswell: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sensing 3(8) (2011) (hier). Kurzbeschreibung: Diese Arbeit stellt keine direkte Widerlegung der AGW-Hypothese dar, legt eine Widerlegung aber nahe. Es wird gezeigt, warum der Einfluss der Wolken einen positiven ffedback vortäuschen kann.
R.W. Spencer, and W.D. Braswell: On the diagnosis of radiative feedback in the presence of unknown radiative forcing, Journal of Geophysical Research, Vol. 115 (2010) (hier). Kurzbeschreibung: Auch diese Arbeit stellt keine direkte Widerlegung der AGW-Hypothese dar, legt eine Widerlegung aber nahe.
G. Paltridge et al.: Trends in middle- and upper-level tropospheric hunmidity from NCEP reanalysis data, Theor. Appl. Climatol. 98 (2009) (hier). Kurzbeschreibung: In der Arbeit wird an Hand von Ballonmessungen belegt, dass es kein positives Feedback gibt. Die Größe des negativen Feedback kann auf Grund der Messunsicherheiten nicht quantifiziert werden, nur das Vorzeichen ist sicher. Daher kann die Klimasensitivität des CO2 nicht größer als der Normalbereich sein.
M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012). Kurzbeschreibung: Die Arbeit zeigt mit Hilfe einer modernen statistischen Methode, dass kein Zusammenhang zwischen ansteigenden CO2-Konzentrationen und globalen Mitteltemperaturen besteht.
H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011) (hier). Kurzbeschreibung: Die Arbeit belegt an Hand von spektralen Labormessungen, dass die Klimasensitivität des CO2 am unteren Randdes Normabereichs liegt.
H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011) (hier). Kurzbeschreibung: Die Arbeit belegt an Hand von ca. 2500 Langzeit-Temperaturreihen, dass die Temperaturänderungen im 20. Jahrhundert nur etwa zu einem Drittel nicht im Rahmen natürlicher Variationen liegen. Der Grund für das Verhalten der „unnatürlichen“ Reihen ist unbekannt. Diese Arbeit stellt keine direkte Widerlegung der AGW-Hypothese dar, legt eine Widerlegung aber nahe.

Fazit

Es ist nur ein Schluss zulässig: Die AGW-Hypothese einer maßgebenden, menschgemachten Erwärmung ist mit an Sicherheit grenzender Wahrscheinlichkeit falsch. Die Gruppen, die sie weiterhin in den Vordergrund stellen, machen sich des Verstoßes gegen das Paradigma der modernen Naturwissenschaft einschließlich des Prinzips von Ockham schuldig. Die Art und Weise wie man zu den Erwärmungsprognosen kommt, genügt in keiner Weise den Kriterien, die an wissenschaftliche Arbeit zu stellen sind. Wenn der Öffentlichkeit dies als „Wissenschaft“ verkauft wird, dann ist das nichts weiter als Scharlatanerie.

Related Files