RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.
So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.
So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.
Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.
Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.
 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.
Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.
Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.
Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.
Nichts anderes.
Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.
Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.
Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.
Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.
In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.
Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.
Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“


Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung
Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.
Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].
Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.
In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.
In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:
“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab
Und etwas später ebenda:
“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 
In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:
“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“
Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.
Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.
Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.
Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.
In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 
und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.
 
[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.
 




Nachrichten­medien verliehen fehler­hafter Klima­studie große Aufmerk­samkeit

Vor einiger Zeit wurde uns weisgemacht, dass der Klimawandel schlimmer sei als gedacht. Aber die dem zugrunde liegende Wissenschaft enthält einen grundlegenden Fehler.

Der unabhängige Klimawissenschaftler Nic Lewis hat diesen Fehler in einer neuen wissenschaftlichen Studie entdeckt, welcher seitens der Medien große Aufmerksamkeit zuteil wurde. In der Studie, durchgeführt von einem Team unter Leitung des Ozeanographen bei Princeton Laure Resplandy, wurde behauptet, dass sich die Ozeane schneller erwärmt haben als ursprünglich gedacht. Viele einschlägige Medien posaunten diese „Erkenntnis“ sofort laut hinaus, darunter BBC, die New York Times, die Washington Post und Scientific American. Sie meinten, dass dies bedeutete, die Erde erwärme sich schneller als jüngst geschätzt.

Nun hat Lewis, der viele begutachtete Studien zur Frage der Klimasensitivität veröffentlicht und mit einigen der weltführenden Klimawissenschaftlern zusammengearbeitet hatte, herausgefunden, dass der Erwärmungstrend in der Resplandy-Studie sich von jenem unterscheidet, der bei der Berechnung der zugrunde liegenden Daten herauskommt – Daten, die die Studie selbst mitgeliefert hatte.

Berechnet man den Trend korrekt, ist die Erwärmungsrate nicht schlimmer als wir dachten – sie liegt sehr auf einer Linie mit früheren Schätzungen“.

Tatsächlich, sagt Lewis, sind auch viele andere Behauptungen in der Studie, welche von den Medien herausgestellt worden waren, falsch.

Ihre Behauptungen hinsichtlich der Auswirkung einer schnelleren Ozean-Erwärmung auf Schätzungen der Klimasensitivität (und damit der zukünftigen globalen Erwärmung) sowie den Kohlenstoff-Haushalt sind ohnehin falsch, aber das ist ein müßiger Streitpunkt, da wir jetzt um ihren Fehler bei den Berechnungen wissen“.

Und jetzt, nachdem die Fehler entdeckt worden waren, weist Lewis auf die große Bedeutung hin, dass diese Fehler korrigiert werden.

Die Original-Ergebnisse der Resplandy-Studie wurden einfach von den Medien nachgeplappert, die fast niemals irgendetwas hinterfragen. Man kann nur hoffen, dass einige Medien nun doch bereits sind zu Korrekturen“.

Nicholas Lewis:A major problem with the Resplandy et al. ocean heat uptake paper (pdf)

————————-

Zweite Ozean-Studie innerhalb von drei Monaten vom unabhängigen Klimawissenschaftler Nicholas Lewis widerlegt

Eine vorige Woche im Magazin Science veröffentlichte Studie sorgte für weit verbreitete Behauptungen, denen zufolge sich die Ozeane schneller erwärmen als ursprünglich gedacht. Medien auf der ganzen Welt griffen begierig danach.

Aber weniger als eine Woche nach den Schlagzeilen erkannte ein unabhängiger Klimawissenschaftler, nämlich Nicholas Lewis, dass auch diese Studie, durchgeführt von einem Team unter Leitung von Lijing Cheng von der Chinese Academy of Sciences etwas enthielt, was er bedeutende faktische Fehler nennt. Auch sagt Lewis, dass einige der Feststellungen von Cheng „irreführend“ seien.

Er erklärt:

Die Schlagzeilen sagten allesamt, dass sich die Ozeane schneller erwärmen als ursprünglich gedacht. Unglücklicherweise scheinen die Autoren viele ziemlich bedeutende Fehler gemacht zu haben sowie unpassende Vergleiche. Die Ozean-Erwärmung liegt sehr auf einer Linie mit früheren IPCC-Schätzungen, wenn man sie korrekt berechnet, und die sich während des vorigen Jahrzehnts entgegen den Prophezeiungen der Klimamodelle verlangsamt hat“.

Lewis wurde in der Klimadebatte prominent wegen seiner forensischen Standpunkte hinsichtlich wichtiger Ergebnisse der Klimawissenschaft. Im November haben die Autoren einer anderen Studie, die ebenfalls große Medienaufmerksamkeit erregt hatte [und um die es oben gegangen war, Anm. d. Übers.], rasch eingeräumt, dass Lewis katastrophale Fehler entdeckt hatte, obwohl sie ihre Ergebnisse immer noch nicht formell zurückgezogen haben. Lewis hofft jetzt, dass auch Cheng et al. ihre Fehler rasch korrigieren:

Die Fehler scheinen unbestreitbar, weshalb ich hoffe, dass sie alles so bald wie möglich korrigieren, damit wir alle weiterkommen“.

Science

Übersetzt von Chris Frey EIKE

Zu dieser zweiten Studie gibt es bei Judith Curry hier eine ausführliche Diskussion zwischen den Autoren und Nic Lewis. Das ist lang und voller wissenschaftlich-technischer Details, aber wer des Englischen halbwegs mächtig ist, sollte mal reinschauen.

Auch hier beim EIKE gab es zu diesem Thema schon einen eigenen Beitrag von Klaus-Eckart Puls, nämlich hier.




Unstimmigkeiten auch im Bericht der IPCC Arbeitsgruppe III – Top-Ökonom kritisiert Weltklimarat!

 

Die Glaubwürdigkeit der etablierten Klimawissenschaft sank auf bis dahin ungeahnte Tiefstände. Und dabei zeichnete sich schnell ab, wie die Rückzugslinie der Klimaforscher aussehen würde. Hatten doch die ersten und nach wie vor prominentesten Skandale hauptsächlich mit dem zweiten Teil (WG II) des IPCC-Berichtes zu tun. In diesem geht es um die Auswirkungen des Klimawandels auf Menschen, Tiere, Pflanzen und Ökosysteme. Und hier sind auch die mittlerweile legendären Fehler und Falschaussagen beheimatet, die so eingängige Namen wie Glaciergate, Amazonasgate oder Africagate tragen.

Viel wichtiger und aussagekräftiger aber wäre, so die Klimaforscher, der erste Teil des IPCC-Berichtes. Und dieser wäre pure und hochkarätige Wissenschaft, die über jeden Zweifel erhaben ist. Die Wissenschaft hinter dem Klimawandel wäre gesichert und der Konsens unverrückbar. Allerdings hat auch dieses Bild inzwischen starke Macken abbekommen. Kritikpunkte sind hier zum Beispiel die Ermittlung der Globaltemperatur aus immer weniger Messstationen, grobe Fehler bei der Bestimmung des Temperaturverlaufes der letzten 1000 Jahre oder einseitige Darstellungen über den Zustand der Eisdecke in der Antarktis. Nicht vergessen werden sollte hierbei, dass viele der Autoren des Berichtes der WG I direkt oder indirekt in den Climategate-Skandal verwickelt sind und deren Glaubwürdigkeit momentan ohnehin auf dem Prüfstand steht.

Top-Ökonom weist auf zahlreiche Fehler hin

Erstaunlich wenig Beachtung fand hingegen bislang der 3. Teil des IPCC Berichtes oder genauer der Bericht der Arbeitsgruppe III (WG III) des IPCC.

 

Dieser beschäftigt sich mit den Maßnahmen zur Minderung des Klimawandels (), vor allem durch Reduktion der CO2-Emissionen. Und auch dieser Teil des IPCC-Berichtes steckt offensichtlich voller Fehler und Falscheinschätzungen. Einige davon an die Öffentlichkeit zu bringen, hat sich Richard S. J. Tol, einer der Top-Experten auf dem Gebiet der Ökonomie, jetzt vorgenommen. Der Niederländer zählt zu den weltweit angesehensten Wirtschaftswissenschaftlern. Er wirkte beim dritten IPCC-Sachstandbericht und beim aktuellen AR4 als Gutachter mit.

Laut Tol werden Kosten für die CO2-Reduktion systematisch kleingeredet, wohingegen bei den Folgen einer wärmeren Welt offenbar solche Aussagen bevorzugt wurden, die besonders hohe Summen veranschlagen. Seine Kritik an der Arbeitsgruppe III hat er in mehreren Artikeln im Blog des US-Amerikanischen Professors für Umwelt-Studien, Roger Pielke Jr., veröffentlicht. In seiner Zusammenfassung dieser Reihe schreibt Tol:

„Der vierte Sachstandbericht der Arbeitsgruppe 2 des Weltklimarates (IPCC) wurde bereits eingehend dafür kritisiert, die Auswirkungen des Klimawandels zu pessimistisch dargelegt zu haben. Das IPCC hat zugegeben, dass Fehler gemacht wurden, behauptet aber, dass solche  Fehler nun einmal auftreten würden. Nichtsdestotrotz zeigen sämtliche Fehler nur in eine Richtung, und zwar in die eines übermäßigen Alarmismus über den Klimawandel. Das lässt einen zumindest annehmen, dass es, eventuell unbeabsichtigt, doch eine einseitige Neigung im IPCCC gibt.“

Dass auch bei den wirtschaftlichen Betrachtungen der CO2-Vermeidung eine Bevorzugung von Arbeiten stattfand, die durch die Bank Vermeidungskosten kleinrechnen und Kosten für die Folgen einer Erwärmung besonders hoch ansetzen, so dass ein Vorsatz zumindest plausibel erscheint, belegt er anhand zahlreicher Beispiele.

IPCC-konforme Studien werden aufgeblasen, “unpassende” ignoriert oder verdreht wiedergegeben

So fand Tol, dass das IPCC Studien zur Bevölkerungsentwicklung einfach inhaltlich falsch zitierte, um eine Übereinstimmung mit den Bevölkerungsszenarien im IPCC-Bericht herzustellen. Diese Art der Fehlinterpretation von wissenschaftlichen Studien, wenn diese nicht die gewünschten Ergebnisse enthielten, war auch bei Aussagen zu Auswirkungen von unterschiedlichen Wechselkursen und unterschiedlichem Geldwert zu finden.

 

Ein auch in unserem Land häufig vorgebrachtes Argument ist, dass „grüne“ Industrien neue Jobs schaffen und so völlig neue Möglichkeiten für ein, auch in Umweltpolitischer Hinsicht, „nachhaltiges“ Wirtschaftswachstum schaffen. Diese Meinung teilt auch das IPCC indem es findet, dass durch die vorgeschlagene Klimapolitik wirtschaftliches Wachstum angeschoben würde. Nur lässt sich diese Aussage nicht aus der wissenschaftlichen Literatur belegen. Diesem Umstand begegnet das IPCC, indem es sich auf nicht-begutachtete, sogenannte graue Literatur, stützt. Und selbst dabei werden in diesen Studien vorgetragene Zweifel entweder kleingeredet oder komplett unterschlagen.

Eine einseitige Art der Berichterstattung fand Tol auch bei derBerechnung der Kosten der Emissionsreduktion. Hier wurden wieder solche Studien bevorzugt, welche diese Maßnahmen als günstiger erscheinen lassen. Arbeiten mit entgegengesetzter Aussage hingegen wurden entweder gar nicht erst erwähnt, oder deren Aussagen wurden falsch dargestellt. Und auch hier war es auffällig, dass Fehleinschätzungen lediglich in eine Richtung zu laufen schienen.

Diese Arbeitsweise scheint sich allgemein wie ein roter Faden durch den Bericht der WG III zu ziehen. Für die Gesamtaussage „passende“ Studien werden aufgebauscht, auch wenn es sich dabei nicht um korrekt begutachtete wissenschaftliche Arbeiten handelte. Studien, welche zu entgegengesetzten Ergebnissen kamen, wurden falsch zitiert oder gänzlich unter den Tisch fallen gelassen. Um zu der Aussage zu kommen, dass eine Reduzierung der CO2-Emissionen die Welt letztendlich günstiger kommt, als eine Anpassung an ein verändertes Klima, wurden Einsparungen welche durch ökonomische Notwendigkeiten, wie etwa gestiegene Energiepreise, entstanden waren, einfach als solche Ausgegeben, die durch die Klimapolitik entstanden wären. Auch dadurch erscheinen die Maßnahmen zur CO2-Einsparung letztendlich wieder günstiger, als sie eigentlich sind.

 

Man könnte die hier aufgelisteten Fehler einfach nach IPCC-Art unter „irren ist menschlich“ abtun. Nur ist es nicht so, dass sie niemandem unter den zahlreichen Gutachtern aufgefallen wären. Genau das Gegenteil ist der Fall, Hinweise auf diese Fehler gab es reichlich. Nur wurden diese von den Hauptautoren des Berichts entweder ignoriert oder als unbedeutende Einzelmeinung abgetan.

Deutscher Klimaexperte spielte Schlüsselrolle

Aus Deutscher Sicht ist noch interessant, dass die meisten der hier aufgeführten Fehler im Kapitel 11 des Berichtes der WG III gefunden wurden. Und einer der Hauptautoren dieses Kapitels ist Professor Dr. Ottmar Edenhofer vom Potsdamer Institut für Klimafolgenforschung (PIK), das mit seinem Direktor Schellnhuber auch gleichzeitig den „Klimaberater“ unserer Bundeskanzlerin stellt. Wer vermutet, dass die Tatsache, dass solche Fehler offensichtlich immer nur in eine einzige Richtung unterlaufen, für eine gewisse Systematik innerhalb des IPCC spricht, dürfte so falsch wohl nicht liegen. Zumal sich ein solches Vorgehen innerhalb des IPCC offensichtlich als karrierefördernd erweist. Professor Edenhofer jedenfalls ist für den für 2014 erwarteten 5. Sachstandsbericht des Weltklimarates gleich als Koordinierender Hauptautor für den gesamten  Bericht der Arbeitsgruppe III vorgesehen.

Rudolf Kipp EIKE zuerst erschienen bei Science Sceptical

Weitere Links zum Thema:

Spiegel: Experte wirft Uno-Klimarat Schönrechnerei vor

Die Klimazwiebel: Richard Tol on Working Group 3 of IPCC

ÄHNLICHE BEITRÄGE (BETA):