Bild rechts: Man beachte die Schritt-Änderung. Etwa im Jahre 1960 ist das Unsicherheitsniveau abgestürzt; oder anders ausgedrückt, BEST behauptet, dass man sich danach doppelt so sicher ist bzgl. ihrer Temperaturschätzungen, und zwar praktisch über Nacht.
Erstens, BEST lässt nur die Mittelwert-Berechnungen noch einmal durchlaufen, um deren Unsicherheit zu bestimmen. Sie berechnen aber nicht noch einmal den „Breakpoint“*. Man erinnere sich, BEST unterteilt die Daten von Temperaturstationen in Segmente, wann immer sie glauben, einen „Breakpoint“ gefunden zu haben. Hauptsächlich wird nach diesen Breakpoints gesucht, indem man die Stationswerte mit nicht weit entfernten benachbarten Stationen vergleicht. Falls an einer Station der Unterschied zu den Nachbarstationen zu groß ist, unterteilt man die Werte dieser Station in Segmente, die nachfolgend neu angepasst [realigned] werden können. Dies ist eine Form von Homogenisierung, ein Prozess, bei dem die Werte benachbarter Stationen so bearbeitet werden, dass sie sich ähnlicher sind.
[*Dieses Wort hat mehrere Bedeutungen, und weil ich nicht weiß, welche am besten passt, lasse ich den Begriff so stehen. Anm. d. Übers.]
Dieser Prozess wird bei den Unsicherheits-Berechnungen von BEST nicht wiederholt. Der ganze Datensatz ist homogenisiert, und Untergruppen dieser homogenisierten Datensätze werden verglichen, um zu bestimmen, wie viel Varianz darin steckt. Das ist unsachgemäß. Die Größe der Varianz, die BEST innerhalb eines homogenisierten Datensatzes findet, sagt nichts darüber, wie groß die Varianz in den BEST-Daten ist. Sie sagt uns nur, wie groß die Varianz ist, wenn BEST erst einmal die Homogenisierung der Daten abgeschlossen hat.
Zweitens, um zu berechnen, wie groß die Varianz in seinen (homogenisierten) Datensätzen ist, lässt BEST die Berechnungen noch einmal laufen, wobei zuvor ein Achtel der Daten entfernt worden ist; acht mal. Dies erzeugt acht verschiedene Reihen. Vergleicht man diese verschiedenen Reihen miteinander, passt BEST die Daten so an, dass sie alle der gleichen Grundlinie folgen. Der Grundlinien-Zeitraum, den BEST für diese Anpassung verwendet, ist 1960 bis 2010.
Das ist ein Problem. Wenn man die acht Reihen nach dem Zeitraum 1960 bis 2010 ausrichtet, wird die Varianz zwischen jenen Reihen im Zeitraum 1960 bis 2010 künstlich gedämpft (und die Varianz anderswo künstlich erhöht). Dies erweckt den Anschein, dass es im letzten Teil der BEST-Aufzeichnung mehr Sicherheit gibt als in Wirklichkeit vorhanden. Das Ergebnis: Es gibt einen künstlichen Stufenschritt im Unsicherheitsniveau bei BEST um das Jahr 1960. Dies ist das gleiche Problem, das schon bei Marcott et al. gezeigt worden ist (hier).
Alles in allem ist das Unsicherheitsniveau bei BEST ein einziges Durcheinander. Es ist unmöglich, diese in irgendeiner bedeutsamen Weise zu interpretieren, und sie können mit Sicherheit nicht dazu verwendet werden zu bestimmen, welche Jahre die wärmsten gewesen waren oder auch nicht.
Link: http://wattsupwiththat.com/2015/01/29/best-practices-increase-uncertainty-levels-in-their-climate-data/
Übersetzt von Chris Frey EIKE

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken