Fliegende Falschheiten und der Wert von Zahlen

Ivor Williams

Teil 1: Fliegende Falschheiten

Die Falschheit fliegt, und die Wahrheit humpelt hinterher, so dass es zu spät ist, wenn die Menschen sich nicht täuschen lassen wollen. Das schrieb Jonathan Swift im Jahr 1710. Man fragt sich, ob er sich vielleicht auf die reißerischen Beschreibungen des Großen Sturms von 1703 bezog, der immer noch das bei weitem schlimmste Unwetter ist, das dieses Land seit Beginn der schriftlichen Aufzeichnungen heimgesucht hat. Doch zurück ins einundzwanzigste Jahrhundert.

Nehmen wir zum Beispiel die von Reuters zitierte Behauptung: „Dieses Jahr wird ‚praktisch sicher‘ das wärmste seit 125.000 Jahren, sagten europäische Wissenschaftler am Mittwoch“ (8. November). Wir haben die Temperaturen nur für die letzten 150 Jahre aufgezeichnet, aber diese unverantwortliche und völlig abwegige Bemerkung ging um die Welt, wurde am nächsten Tag von CNN aufgegriffen, erschien in den nächsten ein oder zwei Wochen auf Dutzenden von Websites und tauchte im Januar sogar in der South China Morning Post auf.

Eine andere Version lautete: „Die Welt war seit 100.000 Jahren nicht mehr so warm“. Hier handelt es sich um eine Meldung, die bereits im Juli beschlossen wurde, als das Jahr erst sechs Monate alt war. Der „Experte“ räumte in diesem Fall ein, dass „die Aufzeichnungen auf Daten beruhen, die nur bis zur Mitte des 20. Jahrhunderts zurückreichen … [aber] sie sind ‚mit ziemlicher Sicherheit‘ die höchsten Werte, die der Planet … seit mindestens 100.000 Jahren gesehen hat“, so Jennifer Francis, eine leitende Wissenschaftlerin am Woodwell Climate Research Center.

Auf diese Weise wurde der Schaden angerichtet. Vielleicht noch schlimmer war der Kommentar der erhabenen und angesehenen Wissenschaftszeitschrift Nature. „Die Erde kochte 2023“, verkündeten sie, 2023 sei „offiziell das heißeste Jahr seit Beginn der Aufzeichnungen“. Man beachte die Verwendung des Wortes „heißeste“ anstelle von „wärmste“, wenn ein Redakteur die Panik schüren will, und man könnte sich über das „kochte“ wundern, wenn man den nächsten Abschnitt liest.

Teil 2: Der Wert von Zahlen

„Wenn man das, worüber man spricht, messen und in Zahlen ausdrücken kann, weiß man etwas darüber“. Das war Lord Kelvin im Jahr 1883. Beherzigen wir also seinen Rat und schauen wir uns ein paar Zahlen an. Unser eigenes Met. Office [von UK] sagte: „Die globale Durchschnittstemperatur für 2023 war 0,17 Grad Celsius höher als der Wert für 2016, dem bisher wärmsten Jahr in den Aufzeichnungen“. Weniger als ein Fünftel eines Grades wärmer in acht Jahren? Vielleicht sollte man die Panik etwas zügeln.

Doch damit nicht genug: Es war auch 1,46 Grad Celsius wärmer als in der vorindustriellen Periode 1850-1900. Die globalen Jahrestemperaturen sind jetzt immer Anomalien: höher als, niedriger als usw., aber niemals reale Werte. Der von der Weltorganisation für Meteorologie angegebene globale Jahresdurchschnitt für den Zeitraum 1961-1990 beträgt in Wirklichkeit 14,0 °C, aber das klingt nicht alarmierend genug, so dass sie Anomalien verwenden. Es ist möglich (wenn auch nicht einfach), herauszufinden, dass die vereinbarte „vorindustrielle“ Durchschnittstemperatur von 1850-1900 um 0,31°C unter dem Wert von 1961-90 liegt, was 13,7°C ergibt.

Das Met Office ist nicht die einzige Organisation, die mit zwei Dezimalstellen arbeitet; diese implizite Genauigkeit auf Hundertstel Grad führt uns weit ins Märchenland. Wie ist es möglich, dass sie die Durchschnittstemperatur auf der ganzen Welt über Land und Meer für ein ganzes Jahr messen und dabei diese lächerliche zweite Nachkommastelle angeben? Mit Satelliten vielleicht? Nein – die NASA erklärt, dass diese keine ausreichend zuverlässigen Daten liefern.

Für den Zeitraum 1850-1900 kann es sicherlich keine aussagekräftigen globalen Jahresdurchschnittstemperaturen geben. Selbst im Jahr 2024 ist die Abdeckung mit Messstationen außerhalb Europas und Nordamerikas immer noch dünn und die Abdeckung der Ozeane sehr zufällig. Im neunzehnten Jahrhundert gab es sicherlich noch viel größere Lücken.

Aber glauben wir den Daten und schauen wir, was sie uns sagen. Eine Botschaft ist in der Folge 2019-2023 enthalten. Bei allen Daten handelt es sich um Anomalien, d. h. um globale Durchschnittswerte im Vergleich zu den Werten von 1850-1900, und alle Daten stammen vom Hadley Centre for Climate Science and Services über die offiziellen Websites des Met Office.

2019           MO19          1.05 ± 0.01°C oben. (Später geändert – siehe Text unten)

2020           MO20         1.28 ± 0.08°C.

2021           MO21         1.11 ± 0.13°C.

2022           MO22         1.16 ± 0.08°C.

2023           MO23         1.46 ± 0.01°C.

Ist das die globale Erwärmung? Nach den offiziellen Daten hat sich die Erde in fünf Jahren um zwei Fünftel Grad Celsius gegenüber dem fiktiven vorindustriellen Zeitalter erwärmt. Rechnen Sie nach: 1,46 – 1,05 = 0,41.

Und es gibt noch mehr. Das Hadley Centre hat 2020 von HadCRUT4 auf -5 umgestellt, und der Wert für 2019 wurde auf mysteriöse Weise von 1,05 auf 1,25 geändert (MO20). Wenn man diesen Wert als Ausgangspunkt für den Fünfjahreslauf nimmt, sieht die Rechnung noch seltsamer aus:

Jahr 2023 @ 1,46 minus Jahr 2019 @ 1,25 = 0,21°C. Jetzt auf ein Fünftel Grad heruntergerechnet.

Man könnte misstrauisch werden angesichts der unglaublich genauen Toleranzen, mit denen diese von vornherein zweifelhaften Werte versehen sind. Aber für 2024 gibt es bereits eine kühne Prognose (MO24). Die globale Jahresdurchschnittstemperatur wird „zwischen 1,34 °C und 1,58 °C (mit einer zentralen Schätzung von 1,46 °C) über dem Durchschnitt der vorindustriellen Periode (1850-1900)“ liegen. Das ist mal eine Nachricht, die nicht irgendwelchen Unwahrheiten hinterherhumpelt, weil niemand sie für aufregend genug hielt, um sich die Mühe zu machen. Das Ergebnis passt nicht zu den Schlagzeilen, in denen Worte wie Panik, Hochkonjunktur, Ausreißer, Untergang und so weiter verwendet werden, denn für dieses Jahr wird dasselbe vorhergesagt wie für das letzte. Da gibt es nichts zu berichten, sagen die Redakteure und Blogger. Diese Nachricht wurde nur auf der Website des Met Office veröffentlicht.

Globale Erwärmung? Wenn die Anomalie der globalen Jahresdurchschnittstemperatur im Jahr 2024 im Vergleich zu den Werten von 1850-1900 genauso hoch sein soll wie im Jahr 2023, dann wird der Gesamtanstieg über sechs Jahre (2019-2024) voraussichtlich ein Fünftel eines Grades Celsius betragen. Rechnen Sie noch einmal nach – es ist nicht kompliziert: 1.46 – 1.25 = 0.21°C. Das ist eine globale Erwärmungsrate von 0,03°C/Jahr. Das ist doch viel zu wenig?

In der Ankündigung des Met Office vom Januar 2020 (MO20) wurden die revidierten jährlichen HadCRUT5-Temperaturanomalien (im Vergleich zu den Zahlen von 1850-1900) für die Jahre 2010 bis 2020 angegeben. In diesen zehn Jahren betrug der etwas weniger beängstigende Anstieg 1,00 im Jahr 2010 bis 1,28 im Jahr 2020. Ein Viertel Grad in 11 Jahren? Immer noch zu wenig?

Bedenken Sie, dass sich diese Anomalien alle auf dieselbe Konstante beziehen: die globale Durchschnittstemperatur der Jahre 1850-1900, die auf 13,7 °C festgelegt wurde. Betrachten wir nun die Jahre 2010-2024, jedoch umgerechnet auf reale Temperaturen.

Jahr           Anomalie °C          tatsächlich °C (13.7 added)

2010           1.0                               14.7

2011           0.89                             14.6

2012           0.93                             14.6

2013           0.98                             14.7

2014           1.03                             14.7

2015           1.18                             14.9

2016           1.29                             15.0

2017           1.20                             14.9

2018           1.12                             14.8

2019           1.25                              15.0

2020           1.28                              15.0

2021           1.11                             14.8

2022           1.16                              14.9

2023           1.46                              15.2

2024           1.46                              15.2

Über einen Zeitraum von fünfzehn Jahren beträgt der offiziell angegebene durchschnittliche jährliche globale Temperaturanstieg also 0,5°C.

In fünfzehn Jahren beträgt die Anstiegsrate also 0,03°C/Jahr.

Hier noch einmal Nature mit der Schlussfolgerung ihres „kochenden“ Kommentars: „Klimaforscher blicken mit Beklemmung in die Zukunft“. Wenn meine Forschungen und Berechnungen richtig sind, müssen sie sich nur Sorgen um ihre Prognosen machen.

Link: https://wattsupwiththat.com/2024/01/20/flying-falsehoods-and-the-value-of-numbers/

Übersetzt von Christian Freuer für das EIKE

 




Die Gefahr kurzer Datensätze

Willis Eschenbach

Vor ein paar Monaten stieß ich auf eine weitere Behauptung, dass der Sonnenfleckenzyklus das Wetter hier unten an der Erdoberfläche beeinflusst, insbesondere die Meerestemperaturen in der El-Nino-Region des tropischen Pazifiks. Die Arbeit heißt Evidence of solar 11-year cycle from Sea Surface Temperature (SST), von Mazza und Canuto, im Folgenden MC2021 genannt. Ich habe darüber in meinem Beitrag „CEEMD Versus Joe Fourier“ geschrieben. In diesem Beitrag möchte ich meine Analyse ein wenig erweitern und einen der Gründe klären, warum die Behauptungen von MC2021 nicht stimmen.

Diejenigen, die meine Arbeiten lesen, wissen vielleicht, dass ich anfangs wirklich daran glaubte, dass Sonnenflecken das Wetter auf der Oberfläche beeinflussen. Als Kind hatte ich von William Herschels Behauptung aus dem Jahr 1801 gelesen, dass Sonnenflecken die Weizenpreise in England beeinflussen. Ich dachte also, dass es sehr einfach sein würde, Beweise dafür zu finden, dass die durch Sonnenflecken verursachten Schwankungen der Sonnenenergie tatsächlich das Wetter auf der Erdoberfläche beeinflussen.

Aber als ich mir die Daten zum ersten Mal ansah, fand ich … nichts. Also habe ich weiter gesucht. Seitdem habe ich mir Dutzende von angeblichen Korrelationen angesehen und … nichts gefunden. Nun, das ist nicht ganz richtig. Ich fand eine wissenschaftliche Abhandlung mit dem Titel „On The Insignificance Of Herschel’s Sunspot Correlation“ (Über die Bedeutungslosigkeit von Herschels Sonnenflecken-Korrelation), in der der Autor nach stichhaltigen Beweisen für Herschels Behauptung suchte. Er fand …

nichts.

Daher war ich an der MC2021-Studie interessiert. Darin heißt es:

Nachdem wir Hunderte von Temperaturaufzeichnungen der Erdoberfläche heruntergeladen und analysiert hatten, fanden wir in einigen wenigen Fällen eindeutige Beweise für die Signatur des 11-Jahres-Zyklus der Sonne, während diese in der überwiegenden Mehrheit der anderen Fälle nicht nachweisbar war, da sie unter anderen (saisonalen oder El-Nino-bedingten) Schwingungen oder Rauschen begraben war. Wir haben festgestellt, dass zwei Bedingungen am günstigsten sind, um die richtige Sonnensignatur in den Temperaturaufzeichnungen zu finden: als Daumenregel:

Die tropischen Meerestemperaturen im Bereich von 5°N – 5°S. Das ist nicht verwunderlich, da die Sonnenstrahlen dort ihre Energie mit weniger Reflexion oder Streuung und mit einem optimalen Einfallswinkel auf die Wasseroberfläche übertragen.

Vergessen Sie Anomalien oder Indizes jeglicher Art; für unsere Ziele sind dies nur Datenverstopfungen. Schauen Sie, wann immer möglich, auf die realen Meerestemperaturen (SST).

Nach sorgfältiger Analyse der vielen Temperaturaufzeichnungen der gesamten Erdtemperatur sowie ausgewählter Regionen haben wir zwei Regionen ermittelt, die am stärksten vom 11-jährigen Sonnenzyklus betroffen sind. Bei beiden handelt es sich um die äquatorialen Ozeanregionen, die den Klimaforschern als El-Nino-3 und El-Nino-3-4 bekannt sind.

Hier ist ihr Diagramm, das die behauptete Beziehung zeigt:

Abbildung 1. Abbildung 4 von MC2021, die die Beziehung zwischen Sonnenflecken und den Zyklen in den El-Nino-Regionen zeigt.

Also habe ich nachgesehen, ob ich ihre Ergebnisse reproduzieren kann. Anstatt nur die Indizes Nino4 und Nino34 zu verwenden, habe ich auch den Multivariaten ENSO-Index (MEI) und den Southern Oscillation Index (SOI) herangezogen. Von all diesen Indizes ist bekannt, dass sie in gewisser Weise mit der El Nino/La Nina-Oszillation im tropischen Pazifik korrelieren. (Ich habe den NINO3-Index nicht verwendet, weil er nicht mit den anderen korreliert.) Hier ist das Ergebnis, beginnend im Jahr 1979, dem Beginn des MEI-Datensatzes:

Abbildung 2. Ein Vergleich der zugrundeliegenden ~ 11-Jahres-Zyklen in den Sonnenflecken und dem tropischen Pazifik. Die Zyklen wurden mithilfe der vollständigen empirischen Ensemble-Mode-Zerlegung ermittelt.

Eine Sache ist sicher. Nino4, Nino34, MEI und SOI sind allesamt eindeutig unterschiedliche Messgrößen für das gleiche zugrunde liegende Phänomen. In jedem Datensatz können Sie die jüngsten, sehr langen La Nina-Bedingungen auf der rechten Seite der Grafik sehen, und die Datensätze stimmen durchweg gut miteinander überein.

Und sie stimmen alle recht gut mit den Sonnenflecken überein, mit einer Verzögerung von einigen Jahren zwischen den Sonnenflecken und den Indizes der tropischen Ozeane.

Was gibt es also nicht zu mögen?

Nun, was man nicht mögen kann, ist, dass die Datensätze sehr kurz sind. Meine Faustregel besagt, dass man mit nur drei Zyklen eines Phänomens nicht viel aussagen kann, und ich habe mich schon mehr als einmal von fünf Zyklen täuschen lassen. Und hier haben wir nur vier Zyklen.

Glücklicherweise reicht der MEI zwar nur bis 1979 zurück, die anderen drei Indizes reichen jedoch viel weiter zurück. Hier sind die vollständigen Datensätze, beginnend mit dem Jahr 1870:

Abbildung 3. Vergleich der zugrunde liegenden ~ 11-jährigen Zyklen im tropischen Pazifik nach 1870. Die Zyklen wurden mithilfe der Complete Empirical Ensemble Mode Decomposition (CEEMD) bestimmt.

Da es eine recht gute Übereinstimmung zwischen den Zeitpunkten der Zyklen der drei Datensätze gibt, möchte ich ihren Durchschnitt verwenden, um die langfristigen Bedingungen im tropischen Pazifik darzustellen, und diesen mit den Sonnenfleckendaten vergleichen:

Abbildung 4. Ein Vergleich der Sonnenflecken nach 1870 und der zugrunde liegenden durchschnittlichen ~ 11-jährigen Zyklen im tropischen Pazifik. Die Zyklen wurden mithilfe der Complete Empirical Ensemble Mode Decomposition (CEEMD) bestimmt.

Ich bin sicher, Sie können die Schwierigkeit erkennen. Vor etwa 1945 ist der Ozean weit von der Phase der Sonnenflecken entfernt. Und je weiter man zurückgeht, desto größer wird die Diskrepanz zwischen den beiden Datensätzen. Hinzu kommt, dass die Hüllkurven der Signale sehr unterschiedlich sind. Man würde erwarten, dass, wenn das Sonnensignal stark ist, auch das Temperatursignal stark sein sollte … aber das ist überhaupt nicht der Fall.

Dies lässt sich auch anhand der Fourier-Analyse erkennen. Der jüngere Teil des ENSO-Datensatzes nach 1960 weist einen eindeutigen 12-Jahres-Zyklus auf (nicht 11, sondern 12 Jahre, blaue Linie, rechtes Feld) … aber wenn man sich den gesamten Datensatz bis 1870 ansieht (rote Linie, rechtes Feld), verschwindet dieser Zyklus im Rauschen und ändert sich in einen 13-Jahres-Zyklus. Beachten Sie, dass dies bei den Sonnenfleckendaten nicht der Fall ist (linkes Feld). Dort liegt der 11-Jahres-Zyklus immer deutlich über dem Rauschen und bleibt konstant bei 11 Jahren.

Abbildung 5. Fourier-Periodogramme der Sonnenflecken in voller Länge (rot) und nach 1960 (linkes Feld) sowie der Nino4-Index (rechtes Feld).

Leider haben wir, die wir uns mit Klimawissenschaften beschäftigen, es mit einem äußerst komplexen System zu tun. Das Klima setzt sich aus sechs großen Teilsystemen zusammen: Atmosphäre, Biosphäre, Hydrosphäre, Kryosphäre, Lithosphäre und Elektrosphäre. Jedes dieser Teilsysteme weist interne Resonanzen und Zyklen auf, die auf verschiedenen Zeitskalen von Millisekunden bis zu Millionen von Jahren auftreten. Und nicht nur das: Alle Teilsysteme tauschen auf denselben Zeitskalen in regelmäßigen, unregelmäßigen und zufälligen Abständen Energie aus. Schließlich wird das System von einer ständig wechselnden Energiequelle gespeist.

Selbst das IPCC räumt ein, dass dieses System völlig chaotisch ist, ein Chaos, das seit Millionen von Jahren besteht. Infolgedessen sehen wir oft das, was ich „Pseudozyklen“ nenne. Das sind zyklische Schwankungen in bestimmten Datensätzen. Es handelt sich jedoch nicht um echte Zyklen – sie treten ohne Vorwarnung auf, dauern einige Zeit an und verschwinden dann wieder, um durch andere Pseudozyklen ersetzt zu werden.

Dieses Problem wird durch die Tatsache verschärft, dass so viele unserer wetterbezogenen Datensätze so kurz sind, oft kürzer als ein Menschenleben. Der MSU-Datensatz für die Temperatur der unteren Troposphäre umfasst nur 44 Jahre an Daten, kürzer als die meisten Menschenleben. Dasselbe gilt für den Multivariaten Enso-Index und auch für die Daten nach 1970, die in dem hier diskutierten Papier MC2021 verwendet werden.

Und diese Überschneidung von kurzen Datensätzen und Pseudozyklen führt zu vielen Behauptungen über zyklisches Verhalten in Temperatur-Datensätzen, insbesondere in Bezug auf Sonnenflecken, wo es in Wirklichkeit keine echten, unveränderlichen Zyklen gibt.

Es gibt ein letztes Problem. Dies hat mit der Tatsache zu tun, dass natürliche Wetterdaten oft „autokorreliert“ sind. Das bedeutet, dass die Temperatur von heute oft mit der von gestern zusammenhängt, und die Temperatur von diesem Monat oft mit der des letzten Monats.

Das Problem ist, dass autokorrelierte Daten oft Zyklen enthalten … Zyklen, die etwas bedeuten können oder auch nicht. Hier ist zum Beispiel ein zufälliger autokorrelierter Datensatz eines Typs, der „Fractional Gaussian Noise“ oder „FGN“ genannt wird. Wie der Name schon sagt, handelt es sich nur um Rauschen, nicht um sinnvolle Signale. Beachten Sie, wie sehr er beispielsweise einem natürlichen Temperaturdatensatz ähnelt:

Abbildung 6. Ein Beispiel für zufälliges fraktionales Gauß’sches Rauschen (fractional gaussian noise, FGN).

Und hier ist die CEEMD-Zerlegung desselben FGN-Datensatzes. Denken Sie daran, dass es sich hier nur um Rauschen handelt und keine tatsächlichen Signale vorhanden sind:

Abbildung 7. CEEMD-Analyse eines Beispiels von zufälligem fraktionalem Gauß’schen Rauschen (FGN).

Also … was sehen wir hier? Nun, das linke Feld zeigt die einzelnen Signale, die sich aus der Zerlegung des FGN-Rauschens ergeben. Wie Sie sehen können, gibt es Signale bei einer Vielzahl von Frequenzen, mit einem Rest, der zeigt, was übrig bleibt, nachdem alle regulären Signale entfernt wurden.

Das rechte Feld zeigt dagegen „Periodogramme“ für jedes der Signale im linken Feld mit den entsprechenden Farben. Die Periodogramme zeigen, welches die stärksten Zyklen in den zerlegten Signalen sind. Man erkennt: der stärkste Zyklus liegt bei 10 Jahren und ist in Grün dargestellt. Sie können dieses Signal auf dem linken Feld sehen. Das muss von den Sonnenflecken kommen! … oh, Moment, das ist nur zufälliges Gauß’sches Rauschen …

Die Zehnjahreszyklen sind jedoch weit von einem regelmäßigen Signal entfernt. Sowohl die Amplitude als auch die Zykluslänge ändern sich ständig, wie man an der grünen Linie im linken Feld erkennen kann. Dies ist auch an den kleineren Spitzen in der grünen Linie auf der rechten Seite zu erkennen.

Das ist es, was ich einen „Pseudozyklus“ genannt habe. „Pseudo“ deshalb, weil es sich nicht um einen unveränderlichen, dauerhaften Zyklus handelt. Stattdessen ist es nur einer der vielen Zyklen, die wir in allen autokorrelierten Daten finden, bedeutungslose Zyklen, die erscheinen, sich ändern und wieder verschwinden.

Zu beachten ist auch, dass das FGN-Rauschen einen anhaltenden Trend enthält, die schwarze Linie unten rechts im linken Feld. Dies ist das Ergebnis der gleichen Sache, der Autokorrelation. Wie in dem AGU-Artikel „Nature’s Style: Naturally Trendy“ beschrieben können Trends in natürlichen Datensätzen genauso wenig bedeuten wie der Trend, den diese FGN-Daten zeigen.

Aus diesem Grund müssen in der Klimawissenschaft die statistischen Behauptungen immer und jedes Mal um die Autokorrelation bereinigt werden … zum Beispiel sagt die Statistik des oben gezeigten FGN-Signals ohne die Bereinigung um die Autokorrelation, dass der Trend sehr aussagekräftig ist, mit einem p-Wert von <2e-16.

Aber wenn wir die Autokorrelation bereinigen und die Bonferroni-Berechnung verwenden, um die Tatsache zu berücksichtigen, dass ich 5 FGN-Datensätze untersucht habe, um diesen einen zu finden, stellt sich heraus, dass er überhaupt nicht statistisch signifikant ist, mit einem Autokorrelations- und Bonferroni-bereinigten p-Wert von 0,075 … also doch nur zufälliges Rauschen.

Klimawissenschaft. Versteckte Schlaglöcher überall.

————————————

Es folgt noch eine Liste von Beiträgen verschiedener Autoren dazu aus früheren Jahren.

Link: https://wattsupwiththat.com/2023/03/18/the-danger-of-short-datasets/

Übersetzt von Christian Freuer für das EIKE

 




Verkettete Unsicherheiten

Kip Hansen

[Originaltitel: „Daisy-Chained Uncertainties“ Daisy = Gänseblümchen. – Alle Hervorhebungen in diesem Beitrag im Original]

Wie hoch sind die Wahrscheinlichkeiten? Haben Sie das jemals jemanden fragen hören? Das habe ich sicher. Natürlich fragen sie oft, weil sie keine Ahnung haben, was „Zufall“ ist oder wie man zu einer praktischen Vorstellung davon kommt, „wie hoch die Wahrscheinlichkeit ist“.

Die meisten von uns wissen, dass beim Werfen einer Münze die Wahrscheinlichkeit 50/50 beträgt, dass sie Kopf ergibt. Die Wahrscheinlichkeit, dass sie auf „Zahl“ fällt, ist ebenfalls 50:50. Wir wissen, dass unsere individuelle Wahrscheinlichkeit, von einem Blitz getroffen zu werden, äußerst gering ist. Trotzdem habe ich einen nahen Verwandten, der zweimal vom Blitz getroffen wurde – und beide Male überlebte. Wie groß ist die Wahrscheinlichkeit dafür?!

(Vom Blitz getroffen: Die Schätzungen gehen weit auseinander, aber in den Vereinigten Staaten: „Nach Angaben des National Weather Service hat eine Person eine Wahrscheinlichkeit von 1:15.300, im Laufe ihres Lebens vom Blitz getroffen zu werden, d. h. in einem Zeitraum von 80 Jahren“. Und: „Die Wahrscheinlichkeit, in einem bestimmten Jahr vom Blitz getroffen zu werden, liegt allerdings näher an der 1:1-Million-Marke: 1:1.222.000.“)

Das Thema „Wahrscheinlichkeiten“ ist so umfangreich und komplex, dass der Statistiker William Briggs ein 237-seitiges Buch als Einführung in dieses Thema geschrieben hat.

Regelmäßige Leser werden wissen, dass ich ein eingefleischter Pragmatiker bin – ein praktischer Mensch. Wenn es nicht stimmt, wenn ich mir den Zeh daran stoße, dann ist mir das ziemlich egal. Das bedeutet, dass ich mich eher an berufstätige Ingenieure wende und nicht an Akademiker aller Art, wenn das Thema etwas ist, das ich sehen und anfassen kann.

Mein bevorzugter professioneller Statistiker ist William M. Briggs. Wir haben einen gemeinsamen Hintergrund, der so unterschiedliche Themen wie Kryptologie und Bühnenmagie umfasst. Er veröffentlicht gelegentlich etwas von mir.

Briggs schrieb darüber, was mit der Wahrscheinlichkeit geschieht, wenn mehrere ungewisse Dinge gleichzeitig eintreten müssen. Aber was wir oft in Betracht ziehen müssen, sind verkettete Unsicherheiten.

Was sind daisy-chained Wahrscheinlichkeiten? Etwa so: Wenn meine schwarze Katze, die mit einer Wahrscheinlichkeit von fünfzig zu fünfzig heute Abend nach Hause kommt und dann auf den Hund meines Sohnes trifft, der mit einer Wahrscheinlichkeit von eins zu vier unerwartet bei mir abgegeben wird, damit ich über Nacht auf ihn aufpasse, und wenn man bedenkt, dass der Hund die Katze an einem von fünf Tagen überhaupt nicht verträgt, wie hoch ist dann die Wahrscheinlichkeit, dass es heute Abend zu einem chaotischen Kampf zwischen Hund und Katze in meiner Wohnung kommt?

(Die Wahrscheinlichkeit, dass ein Chaos entsteht, beträgt nur 2,5 %. Ich wäre bereit, diese Wahrscheinlichkeit {und entsprechende Vorsichtsmaßnahmen} in Kauf zu nehmen. Überrascht?)
Natürlich verwendet Briggs kein solches Beispiel eines „Hausherrn“.

Briggs sagt Folgendes:

Hier ein Beispiel aus den jüngsten Nachrichten:

„Phil Trathan: Kaiserpinguine kämpfen sich durch den antarktischen Winter, und sie brauchen das Meereis als stabile Plattform, sie sind also darauf angewiesen, dass das Meer gefriert und eine feste Basis bildet. Und wenn die Temperaturen in der Antarktis steigen, wird das Meereis verschwinden. Und das bedeutet, dass die Kaiserpinguine dann keinen Platz mehr zum Brüten haben werden.“

„Falls die Temperaturen in der Antarktis steigen“ bedeutet, dass die Temperaturen hoch genug steigen, um die winterliche Bildung von Meereis zu gefährden:

Die höchste Höchsttemperatur (Monatsdurchschnitt), die in Wostok oder am Südpol gemessen wurde, liegt bei minus 26 Grad Celsius. Antarktis-Experten wissen, dass im Südwinter immer Meereis vorhanden ist, wenn Kaiserpinguine an Land kommen müssen, um Eier zu legen und Küken aufzuziehen. Kaiserpinguine nisten nicht auf dem temporären Meereis, sondern auf dem soliden Festeis oder auf den eisbedeckten Felsen der Antarktis in Küstennähe. Je nach Beschaffenheit der Küstenlinie benötigen sie jedoch oft landgebundenes Meereis, um das Wasser zu verlassen und auf das Land zu gelangen.

Das ist ein Beispiel dafür, wie schlimm die Propaganda werden kann, aber sehen wir uns die Beispiele von Briggs an:

Alle drei Teile der Aussage sind mit ihren eigenen Unsicherheiten behaftet. Wenn wir die Aussage als Ganzes betrachten, dann müssen diese Unsicherheiten mehr oder weniger multipliziert werden, was zu einem Ganzen führt, das weitaus unsicherer ist als jeder einzelne Teil.

„Diese Münze wird Kopf ergeben, [dann] werde ich mit diesem Würfel eine größere Zahl als eine 3 würfeln und [dann] eine Herz-Acht aus diesem Stapel ziehen.“

Vergessen Sie das nie! Alle Wahrscheinlichkeiten sind bedingte Wahrscheinlichkeiten, d. h. wir müssen Beweise vorlegen, aus denen wir sie berechnen können. Hier habe ich allgemeine Beweismittel ausgewählt. Wir müssen diese für jeden der drei Teile dieses Szenarios annehmen. Für den Münzwurf nehmen wir an: „Hier ist ein Objekt, das, wenn es geworfen wird, nur Kopf oder Zahl zeigen kann“. Daraus leiten wir ab, dass die Wahrscheinlichkeit für Kopf 1/2 ist.

Und so weiter für die anderen. Wir erhalten 1/2 für den Wurf, 1/2 für den Würfelwurf und 1/52 für das Ziehen einer Karte, alles unter der Annahme eines Standardbeweises. Damit das gesamte Szenario wahr ist, müssen wir alle drei Werte erhalten. Die Wahrscheinlichkeiten multiplizieren sich: 1/2 x 1/2 x 1/52 = 1/208, was etwa 0,005 entspricht.“ [Der genauere Wert ist 0,0048076923076923, etwa ½ von 1 % ]

Ich habe diese Beispiele ausgewählt, weil ich denke, dass sie unserem Kaffee-„Klimawandel“-Szenario ähneln, auch wenn die Beweislage schwieriger ist. Gehen wir die einzelnen Teile des Szenarios durch, um zu sehen, wie Aussagen wie diese angegangen werden sollten.

1) Die Bedrohung durch den „Klimawandel“. Darunter verstehe ich, dass die Modelle der Experten, die einen „erheblichen“ „Klimawandel“ vorhersagen, korrekt sind oder dass sich das Klima von selbst verändert, und zwar aus Gründen (zumindest teilweise), die nicht von den Experten in ihren Modellen kodiert wurden. Angesichts der Tatsache, dass Experten seit den 1970er Jahren das Unheil für das Wetter vorhersagen, zuerst, dass es zu kalt sein würde, dann, dass es zu heiß sein würde, dann, dass es einfach zu unterschiedlich sein würde, und dass sie bisher jedes Mal falsch lagen, bin ich nicht allzu scharf auf Expertenmodelle. Aber ich denke auch, dass das Klima der Erde in der Vergangenheit sowohl wärmer als auch kühler, feuchter und trockener, sonniger und bewölkter gewesen ist, also kann es auch wieder so sein.

Es gibt keinen numerischen Wert für die Wahrscheinlichkeit, die sich aus diesen Beweisen ableiten lässt. Sie ist zu vage. Das heißt aber nicht, dass sie nicht nützlich ist. Wenn man nach einer Zahl fragt, liegt sie meiner Meinung nach auf der Grundlage dieser Beweise nicht allzu weit von 50-50 entfernt.

2) Das schlechte Ereignis. Vielleicht würde die Kaffeeproduktion in Afrika bei verändertem Wetter zurückgehen, vielleicht aber auch nicht. Die Aussage, dass sie zurückgehen wird, ist das Ergebnis eines anderen Modells von Experten. Die mit Vorhersagen für die Landwirtschaft gar nicht so gut gefahren sind.

Auch hier lässt sich keine numerische Wahrscheinlichkeit ableiten. Aber ich bin großzügig, also sagen wir wieder 50:50. (In Wirklichkeit glaube ich, dass es weniger ist, aber ich möchte unser Beispiel nicht ändern.)

3) Das Versprechen von „Lösungen“. Die „Lösungen“ der Experten wären hier zweierlei: den Klimawandel zu stoppen und den Rückgang der Kaffeeproduktion abzumildern, wenn sich das Klima in eine Richtung verändert hat, die der Produktion schadet.

Dies ist sogar noch schwieriger, weil in (3) und (1) einige der gleichen Beweise verwendet werden, nämlich die über die Klimamodelle der Experten. Das macht den Multiplikationstrick streng genommen falsch, aber er ist auch nicht allzu abwegig, insbesondere weil die „Lösungen“ der Experten für komplexe Situationen stinken, stanken, gestunken haben. Das Eins zu Fünfzig ist großzügig.

Briggs: Das Endergebnis ist, dass ich mir keine Sorgen über den „Klimawandel“ mache, nicht annähernd so sehr wie über die Annahme von Experten-„Lösungen“, die meiner Einschätzung nach alles nur noch schlimmer machen würden, oder viel schlimmer.

Meine Meinung, die ich mit Briggs (mehr oder weniger) teile ist, dass alle von CliSci vorhergesagten schlechten Auswirkungen diese Art von Gänseblümchenketten-Abhängigkeiten und Wahrscheinlichkeiten aufweisen.

Stellen Sie sich das als „IPCC-Wahrscheinlichkeitsskala“ vor:

Was passiert, wenn nur zwei (2) solcher „Likely“-Aussagen durch Abhängigkeit aneinandergereiht werden.

Ich verwende die beiden unterschiedlichen Punkte innerhalb der Spanne von „Likely“ – 0,70 und 0,85:

Falls „Wahrscheinlich #1: dann falls „Wahrscheinlich #2“ dann Ergebnis (in Wahrscheinlichkeit)

0.70 x 0.85 = 0.595

Bei einer Verkettung von wahrscheinlichen Ereignissen, die voneinander abhängen, wird der Bereich „Wahrscheinlich“ fast erreicht – falls wir aufrunden würden, würden sie es schaffen.

Aber sehen Sie, was passiert, wenn drei wahrscheinliche Ereignisse gleichzeitig eintreten müssen:

0.75 x 0.80 x 0.85 = 0.51

Im Grunde 50-50 im Bereich Ungefähr so wahrscheinlich wie nicht.

0,4 x 0,5 x 0,6 = 0,12

Drei verkettete Ereignisse am unteren Ende von „Ungefähr so wahrscheinlich wie nicht“:

0,35 x 0,35 x 0,35 = 0,043

„Extrem unwahrscheinlich“

Unter dem Strich

1) Alle Wahrscheinlichkeiten für zukünftige Katastrophen von CliSci leiden darunter, dass die Wahrscheinlichkeiten nicht durch Multiplikation der Teilwahrscheinlichkeiten ihrer notwendigen Komponenten berechnet werden. [Die Multiplikation ergibt eine Näherung, die für Pragmatiker gut genug ist.]

2) Man beachte, dass die Wahrscheinlichkeit einer Katastrophe erheblich abnimmt, wenn mehrere Bedingungen („falls dies“) in einer bestimmten zeitlichen Reihenfolge eintreten müssen – wie bei „falls zuerst dies“, „falls als nächstes dies“ dann „eventuell dies“. Die obigen Beispiele betreffen nur die Wahrscheinlichkeit, dass alle Bedingungen eintreten, ohne Rücksicht auf die Reihenfolge. Die Einführung einer neuen Bedingung – die zeitliche Reihenfolge – verringert zwangsläufig die Wahrscheinlichkeit.

3) Für die Klimawissenschaft bedeutet dies, dass wir bei Vorhersagen im Stile des IPCC, die auf Klimamodellen mit sehr großen Streuungen beruhen (z. B. Modelle zur Vorhersage der künftigen globalen Durchschnittstemperatur), bei denen keine Wahrscheinlichkeiten angegeben sind, sondern nur ein breites Intervall möglicher Werte, alle vom IPCC vorhergesagten Ergebnisse überdenken müssen. Und warum? Die Wahrscheinlichkeiten aller vorhergesagten Folgen müssen zumindest grob berechnet werden, indem die Wahrscheinlichkeiten der Bedingungen, die zu diesen Folgen führen, multipliziert werden.

Aufsatz).

Kommentar des Autors hierzu:

Ungewissheit ist heikel, sie ist unsicher, sie kann komplex sein, sie kann kompliziert sein und sie kann chaotisch sein (als Ursache oder Wirkung). Es gibt Leute, die glauben, dass wir die Unsicherheit mit den Zäunen der Statistik sicher einfangen können. Aber diese Idee wird als Schnuller benutzt, um uns davon abzuhalten, uns mit der wirklichen Unsicherheit in der Welt um uns herum auseinanderzusetzen.

Statistische Ansätze sind verlockend – sie geben uns das Gefühl, dass wir alles unter Kontrolle haben, und bringen ein Gefühl der Sicherheit an die Stelle der Unsicherheit. In Anbetracht der Welt, wie sie ist, mag dies für unseren gesunden Menschenverstand notwendig sein.

Ich fürchte, dies ist nur eine weitere Version von etwas, das dem Propter Nomen ähnelt – falls wir es mit „Unsicherheitsbalken“ oder „Standardabweichungen“ oder „Fehlerbalken“ oder, und das gefällt mir, „Konfidenzintervall“ bezeichnen können (was impliziert, dass es sich nicht um die unangenehme Unsicherheit handelt, sondern dass wir uns dessen sicher sind), dann sind wir nicht mehr unsicher. All diese „Unsicherheits“-Ersatzbegriffe sind einfach nur Käfige, in die alle unsicheren Teile unseres Problems eingepfercht zu haben wir hoffen.

Es gibt und wird immer eine gewisse Unsicherheit bei Messungen und Berechnungen geben. Je mehr verschiedene Messungen und Berechnungen beteiligt sind, desto größer wird die Unsicherheit.

Link: https://wattsupwiththat.com/2023/01/17/daisy-chained-uncertainties/

Übersetzt von Christian Freuer für das EIKE

 




Unbekannt, unsicher – oder beides?

Kip Hansen

[Alle Hervorhebungen in diesem Beitrag im Original!]

„Menschen verwenden Begriffe wie ’sicher‘, um ihre Unsicherheit über ein Ereignis zu beschreiben … und Begriffe wie „Zufall“, um ihre Unsicherheit über die Welt zu beschreiben.“ – Mircea Zloteanu
In vielen Bereichen der Wissenschaft wird heute das Wort „Ungewissheit“ in den Mund genommen, ohne dass darüber nachgedacht wird, was mit „Ungewissheit“ gemeint ist, oder zumindest ohne dass dies zum Ausdruck gebracht wird. Diese einfache Tatsache ist so bekannt, dass eine Gruppe in UK mit der Bezeichnung „Sense about Science“ eine Broschüre mit dem Titel „Making Sense of Uncertainty“ (.pdf) veröffentlicht hat. Die Gruppe „Sense about Science“ setzt sich für evidenzbasierte Wissenschaft und Wissenschaftspolitik ein. Die 2013 veröffentlichte Broschüre Making Sense of Uncertainty ist leider ein nur vage getarnter Versuch, den Klimaskeptizismus auf der Grundlage der großen Unsicherheiten in der Klimawissenschaft zu bekämpfen.

Nichtsdestotrotz enthält sie einige grundlegende und notwendige Erkenntnisse über Unsicherheit:

Michael Hanlon: „Wenn die Ungewissheit die Bandbreite der Möglichkeiten sehr groß macht, sollten wir nicht versuchen, eine einzige, präzise Zahl zu ermitteln, da dies einen falschen Eindruck von Gewissheit erweckt – falsche Präzision.“

Ein guter und berechtigter Punkt. Aber das größere Problem ist der „Versuch, eine einzige … Zahl zu finden“, egal ob sie „fälschlich präzise“ ist oder nicht.

David Spiegelhalter: „In der klinischen Medizin können Ärzte nicht genau vorhersagen, was mit jemandem passieren wird, und verwenden daher vielleicht eine Formulierung wie ‚von 100 Menschen wie Ihnen werden 96 die Operation überleben‘. Manchmal gibt es nur so wenige Anhaltspunkte, zum Beispiel weil der Zustand eines Patienten völlig neu ist, dass keine Zahl mit Sicherheit angegeben werden kann.“

Nicht nur in der klinischen Medizin, sondern in vielen Forschungsbereichen werden Arbeiten veröffentlicht, die – trotz vager, sogar widersprüchlicher und begrenzter Beweise mit zugegebenen Schwächen im Studiendesign – endgültige numerische Ergebnisse angeben, die nicht besser als wilde Vermutungen sind. (Siehe die Studien von Jenna Jambeck über Plastik im Meer).

Und, vielleicht die größte Untertreibung und der am wenigsten zutreffende Gesichtspunkt in dieser Broschüre:

„Es besteht eine gewisse Verwirrung zwischen dem wissenschaftlichen und dem alltäglichen Gebrauch der Wörter ‚Unsicherheit‘ und ‚Risiko‘. [Dieser erste Satz stimmt – kh] In der Alltagssprache könnten wir sagen, dass etwas, das unsicher ist, riskant ist. Im wissenschaftlichen Sprachgebrauch bedeutet Risiko jedoch im Großen und Ganzen eine Unsicherheit, die in Bezug auf eine bestimmte Gefahr quantifiziert werden kann – für eine bestimmte Gefahr ist das Risiko also die Wahrscheinlichkeit, dass sie eintritt.“

Viel Konfusion

„Das Risiko ist die Chance, dass es passiert“. Ist das wirklich so? William Briggs weist in seinem Buch „Uncertainty: The Soul of Modeling, Probability & Statistics“ (etwa: Die Seele der Modellierung, Wahrscheinlichkeit und Statistik) darauf hin, dass für eine „Chance“ (d. h. eine „Wahrscheinlichkeit“) zunächst eine Aussage wie „Die Gefahr (der Tod) wird diesem Patienten widerfahren“ und klar dargelegte Prämissen erforderlich sind, von denen die meisten angenommen und nicht dargelegt werden, wie z. B. „Der Patient wird in einem modernen Krankenhaus behandelt, ist ansonsten gesund, der Arzt ist voll qualifiziert und verfügt über umfassende Erfahrung mit dem Verfahren, die Diagnose ist korrekt…“. Ohne vollständige Darlegung der Prämissen kann keine Wahrscheinlichkeitsaussage getroffen werden.

Vor kurzem habe ich hier zwei Aufsätze veröffentlicht, die sich mit der Unsicherheit befassen [Titel übersetzt]:

„Plus oder Minus ist keine Frage“ (hier) und „Grenzen des zentralen Grenzwertsatzes“ (hier).

Jeder von ihnen benutzte fast kindlich einfache Beispiele, um einige sehr grundlegende, wahre Punkte über die Art und Weise darzustellen, wie Ungewissheit verwendet, missbraucht und oft missverstanden wird. Ich hatte mit einem angemessenen Maß an Widerstand gegen diesen unverhohlenen Pragmatismus in der Wissenschaft gerechnet, aber die Heftigkeit und Hartnäckigkeit der Opposition hat mich überrascht. Wenn Sie diese verpasst haben, sehen Sie sich die Aufsätze und ihre Kommentare an. Keiner der Kritiker war in der Lage, ein einfaches Beispiel mit Diagrammen oder Illustrationen zu liefern, um seine konträren (fast immer „statistischen“) Interpretationen und Lösungen zu untermauern.

Wo liegt hier also das Problem?

1. Definition: In der Welt der Statistik wird die Unsicherheit als Wahrscheinlichkeit definiert. „Die Unsicherheit wird durch eine Wahrscheinlichkeitsverteilung quantifiziert, die von unserem Informationsstand über die Wahrscheinlichkeit abhängt, wie hoch der einzelne, wahre Wert der unsicheren Größe ist.“ [Quelle]

[In dem verlinkten Artikel wird die Unsicherheit kontrastiert mit: „Die Variabilität wird durch eine Verteilung der Häufigkeiten mehrerer Instanzen der Größe quantifiziert, die aus beobachteten Daten abgeleitet wird.“]

2. Falsche Anwendung: Die obige Definition wird falsch angewandt, wenn wir die absolute Messunsicherheit betrachten.

Der absolute Fehler oder die absolute Unsicherheit ist die Unsicherheit bei einer Messung, die in den entsprechenden Einheiten ausgedrückt wird.

Die absolute Unsicherheit einer Größe ist der tatsächliche Betrag, um den die Größe unsicher ist, z. B. wenn Länge = 6,0 ± 0,1 cm, ist die absolute Unsicherheit der Länge 0,1 cm. Beachten Sie, dass die absolute Unsicherheit einer Größe die gleichen Einheiten hat wie die Größe selbst.

Anmerkung: Die korrekteste Bezeichnung dafür ist absolute Messunsicherheit. Sie ergibt sich aus dem Messverfahren oder dem Messgerät selbst. Wenn eine Temperatur immer (und nur) in ganzen Grad angegeben wird (oder wenn sie auf ganze Grad gerundet wurde), hat sie eine unausweichliche absolute Messunsicherheit von ± 0,5°. Der als 87° gemeldete/aufgezeichnete Thermometerwert muss also seine Unsicherheit tragen und als „87° ± 0,5°“ angegeben werden – was gleichbedeutend ist mit „irgendeinem Wert zwischen 87,5 und 86,5“ – es gibt eine unendliche Anzahl von Möglichkeiten in diesem Bereich, die alle gleichermaßen möglich sind. (Die natürliche Welt beschränkt die Temperaturen nicht auf die Werte, die genau mit den kleinen Strichen auf den Thermometern übereinstimmen).

Würfeln für die Wissenschaft

Schauen wir uns ein einfaches Beispiel an – einen einzelnen Würfel und ein Würfelpaar zu werfen.

Ein einzelner Würfel (ein Würfel, normalerweise mit leicht abgerundeten Ecken und Kanten) hat sechs Seiten – jede mit einer Anzahl von Punkten: 1, 2, 3, 4, 5 und 6. Wenn er richtig hergestellt ist, hat er eine perfekt gleichmäßige Verteilung der Ergebnisse, wenn viele Male gewürfelt wird. Jede Seite des Würfels (Zahl) wird genauso oft mit der Seite nach oben gefunden wie jede andere Seite (Zahl).

Dies stellt die Verteilung der Ergebnisse von 1.000 Würfen mit einem einzigen fairen Würfel dar. Hätten wir etwa eine Million Mal gewürfelt, lägen die Verteilungswerte der Zahlen näher bei 1:6 für jede Zahl.

Was ist der Mittelwert der Verteilung? 3.5

Wie groß ist die Spanne des erwarteten Ergebnisses bei einem einzelnen Wurf? 3.5 +/- 2.5

Da jeder Wurf eines Würfels völlig zufällig ist (und innerhalb seiner Parameter nur ganze Werte von 1 bis 6 würfeln kann), können wir für jeden nächsten Wurf den Wert von 3,5 ± 2,5 [nur ganze Zahlen] vorhersagen. Diese Vorhersage wäre zu 100 % korrekt – in diesem Sinne gibt es keinen Zweifel daran, dass der nächste Wurf in diesem Bereich liegen wird, da es nicht anders sein kann.

Da es sich um einen reinen Zufallsprozess handelt, hat jeder Wert, der durch den Bereich „3,5 ± 2,5“ [nur ganze Zahlen] repräsentiert wird, die gleiche Wahrscheinlichkeit, bei jedem „nächsten Wurf“ aufzutreten.

Wie wäre es, wenn wir ein Paar Würfel werfen?

Ein Würfelpaar, zwei der oben beschriebenen Würfel, die gleichzeitig geworfen werden, haben eine Werteverteilung, die wie folgt aussieht:

Wenn wir zwei Würfel werfen, erhalten wir etwas, das wie eine unverzerrte Normalverteilung aussieht. Hätten wir das Würfelpaar eine Million Mal gewürfelt, wäre die Verteilung näher an der vollkommenen Normalverteilung – sehr nahe an der gleichen Anzahl für 3er und 11er und der gleichen Anzahl für 2er wie für 12er.

Welches ist der Mittelwert der Verteilung? 7

Wie groß ist der Bereich des zu erwartenden Ergebnisses bei einem einzelnen Wurf? 7 ± 5

Da jeder Wurf des Würfels völlig zufällig ist (innerhalb seiner Parameter kann er nur ganze Werte von 2 bis 12 würfeln), können wir für jeden nächsten Wurf den Wert „7 ± 5“ vorhersagen.

Aber bei einem Würfelpaar ist die Verteilung nicht mehr gleichmäßig über den gesamten Bereich. Die Werte der Summen der beiden Würfel reichen von 2 bis 12 [nur ganze Zahlen]. 1 ist kein möglicher Wert, ebenso wenig wie eine Zahl über 12. Die Wahrscheinlichkeit, eine 7 zu würfeln, ist viel größer als eine 1 oder 3 oder 11 oder 12 zu würfeln.

Jeder Würfelspieler kann erklären, warum das so ist: Es gibt mehr Kombinationen der Werte der einzelnen Würfel, die 7 ergeben, als solche, die 2 ergeben (es gibt nur eine Kombination für 2: zweimal die 1 und eine Kombination für 12: zweimal die 6).

Würfeln in einer Schachtel

Um aus dem Würfelbeispiel eine echte absolute Messunsicherheit zu machen, bei der wir einen Wert und seine bekannte Unsicherheit angeben, aber den tatsächlichen (oder wahren) Wert nicht kennen (können), legen wir die Würfel in eine geschlossene Schachtel mit einem Deckel.  Und dann schütteln wir die Schachtel (würfeln). (Ja, Schrödingers Katze und so weiter.) Wenn wir den Würfel in einen verschlossenen Kasten legen, können wir den Wert nur als eine Menge aller möglichen Werte angeben, oder als Mittelwert ± die oben genannten bekannten Unsicherheiten.

Wir können also unsere Werte für ein Würfelpaar als die Summe der beiden Bereiche für einen einzelnen Würfel betrachten:

Die arithmetische Summe von 3,5 ± 2,5 plus 3,5 ± 2,5 ist eindeutig 7 ± 5. (siehe meine Arbeit „Plus oder Minus ist keine Frage“). Dies ist die korrekte Handhabung der Addition der absoluten Messunsicherheit.

Es wäre genau dasselbe, wenn man zwei Gezeitenmessungen addiert, die eine absolute Messunsicherheit von ± 2 cm haben, oder wenn man zwei Temperaturen addiert, die auf ein ganzes Grad gerundet wurden. Man addiert den Wert und addiert die Unsicherheiten. (Es gibt viele Referenzen dafür. Versuchen Sie es hier.)

Statistiker (als Gruppe) bestehen darauf, dass dies nicht korrekt ist – „Falsch“, wie ein kluger Kommentator bemerkte. Die Statistiker bestehen darauf, dass die korrekte Summe lauten würde:

7 ± 3.5

Einer der Kommentatoren zu Plus oder Minus gab diese statistische Einschätzung ab: „die Unsicherheiten addieren sich IN QUADRATUR. Zum Beispiel: (25,30+/- 0,20) + (25,10 +/- 0,30) = 50,40 +/- SQRT(0,20² + 0,30²) = 50,40 +/-0,36 … Sie würden das Ergebnis als 50,40 +/- 0,36 angeben.
In Worten ausgedrückt: Die Summe der Werte, wobei die Unsicherheit als „Quadratwurzel der Summe der Quadrate der Unsicherheiten“ angegeben wird.

Versuchen wir also, dies auf unser einfaches Würfelproblem mit zwei Würfeln anzuwenden:

(3.5 ± 2.5) + (3.5 ± 2.5) = 7 ± SQRT (2.5² + 2.5²) = 7 ± SQRT(6.25 + 6.25) = 7 ± (SQRT 12.5) = 7 ± 3.5

(Der genauere Wert von √12,5 ist 3,535533905932738…)

Oh je. Das ist etwas ganz anderes als das Ergebnis, wenn man die Regeln für die Addition der absoluten Unsicherheiten befolgt.

Im blauen Diagrammkasten können wir jedoch sehen, dass die korrekte Lösung, die den gesamten Bereich der Unsicherheit einschließt, 7 ± 5 beträgt.

Wo weichen die Ansätze also voneinander ab?

Falsche Annahmen: Der statistische Ansatz verwendet eine Definition, die nicht mit der realen physikalischen Welt übereinstimmt: „Unsicherheit wird durch eine Wahrscheinlichkeitsverteilung quantifiziert“.

So sieht ein Statistiker das Problem:

Wenn es sich jedoch um absolute Messunsicherheiten handelt (oder, wie im Beispiel des Würfelspiels, um absolut bekannte Unsicherheiten – die Unsicherheit ist aufgrund der Beschaffenheit des Systems bekannt), führt die Anwendung der statistischen Regel des „Addierens in Quadratur“ zu einem Ergebnis, das nicht mit der Realität übereinstimmt:

Ein Kommentator des Aufsatzes Grenzen des zentralen Grenzwertsatzes begründete diese Absurdität wie folgt: „Die Wahrscheinlichkeit, dass beide Messungen um den vollen Unschärfewert in dieselbe Richtung abweichen, ist nahezu Null.“

In unserem Würfelbeispiel würden, wenn wir diesen Standpunkt anwenden, die Einsen und Sechsen unserer einzelnen Würfel in einem Paar mit einer Wahrscheinlichkeit von „nahe Null“ zusammenkommen (bei einem Wurf von zwei Würfeln), um die Summen 2 und 12 zu ergeben. 2 und 12 stellen den Mittelwert ± den vollen Unsicherheitswert von plus oder minus 5 dar.

Unser Verteilungsdiagramm der Würfelwürfe zeigt jedoch, dass 2 und 12 nicht einmal selten sind, auch wenn sie seltener vorkommen. Und dennoch können 2er und 12er bei Anwendung der „Quadraturregel“ für die Addition zweier Werte mit absoluter Unsicherheit einfach ignoriert werden. Wir können auch die 3er und 11er ignorieren.

Jeder Würfelspieler weiß, dass dies einfach nicht stimmt, denn die kombinierte Wahrscheinlichkeit, eine 2 oder 3 oder 11 oder 12 zu würfeln, beträgt 18 % – fast 1:5. Eine Wahrscheinlichkeit von 1:5 zu ignorieren, z. B. „die Wahrscheinlichkeit, dass der Fallschirm nicht funktioniert, beträgt 1:5“, ist töricht.

Falls wir die von Statistikern regelmäßig empfohlene „1 Standardabweichung“ (ca. 68 % – gleichmäßig auf beide Seiten des Mittelwerts verteilt) verwenden würden, müssten wir alle 2er, 3er, 11er und 12er und etwa ½ der 3er und 4er aus unserer „Unsicherheit“ eliminieren – die 34 % (>1-in-3) der tatsächlich erwarteten Würfe ausmachen.

Man beachte, dass wir in diesem Beispiel die gewöhnliche Unsicherheit eines zufälligen Ereignisses (Würfelwurf) in eine „absolute Messunsicherheit“ umgewandelt haben, indem wir unsere Würfel in eine Box mit einem Deckel gelegt haben, die uns daran hindert, den tatsächlichen Wert des Würfelwurfs zu kennen, uns aber erlaubt, die gesamte Bandbreite der Unsicherheit zu kennen, die mit der „Messung“ (dem Würfelwurf) verbunden ist. Genau das geschieht, wenn eine Messung „gerundet“ wird – wir verlieren Informationen über den gemessenen Wert und erhalten einen „Wertebereich“. Das Runden auf den „nächsten Dollar“ führt zu einer Unsicherheit von ± 0,50 $; das Runden auf das nächste ganze Grad führt zu einer Unsicherheit von ± 0,5°; das Runden auf die nächsten Jahrtausende führt zu einer Unsicherheit von ± 500 Jahren. Messungen, die mit einem ungenauen Werkzeug oder Verfahren durchgeführt werden, ergeben ebenso dauerhafte Werte mit einer bekannten Unsicherheit.

Diese Art von Unsicherheit lässt sich nicht durch Statistik beseitigen.

Unter dem Strich:

1. Wir scheinen von der Forschung immer eine Zahl zu verlangen – „nur eine Zahl ist am besten“. Dies ist ein miserabler Ansatz für fast jede Forschungsfrage. Der „Trugschluss einer einzigen Zahl“ (den ich, glaube ich, vor kurzem, in diesem Augenblick, geprägt habe. Korrigieren Sie mich, wenn ich falsch liege.) ist „der Glaube, dass komplexe, komplizierte und sogar chaotische Themen und ihre Daten auf eine einzige signifikante und wahrheitsgemäße Zahl reduziert werden können“.

2. Das Beharren darauf, dass alle „Unsicherheit“ ein Maß für die Wahrscheinlichkeit ist, ist eine verzerrte Sicht der Realität. Wir können aus vielen Gründen unsicher sein: „Wir wissen es einfach nicht.“ „Wir haben nur begrenzte Daten“. „Wir haben widersprüchliche Daten.“ „Wir sind uns über die Daten nicht einig.“ „Die Daten selbst sind unsicher, weil sie aus wirklich zufälligen Ereignissen resultieren.“ „Unsere Messinstrumente und -verfahren selbst sind grob und unsicher.“ „Wir wissen nicht genug.“ – Diese Liste ließe sich seitenlang fortsetzen. Fast keiner dieser Umstände lässt sich dadurch korrigieren, dass man so tut, als könne man die Ungewissheit als Wahrscheinlichkeiten darstellen und mit statistischen Ansätzen reduzieren.

3. Die absolute Messunsicherheit ist dauerhaft – sie kann nur durch bessere und/oder genauere Messungen verringert werden.

4. Durchschnittswerte (Mittelwerte und Mediane) neigen dazu, die ursprüngliche Messunsicherheit zu verschleiern und zu verdecken. Durchschnittswerte sind selbst keine Messungen und bilden die Realität nicht richtig ab. Sie sind eine gültige Sichtweise auf einige Daten – verbergen aber oft das umfassendere Bild. (siehe Die Gesetze der Durchschnittswerte)

5. Nur in den seltensten Fällen wird die ursprüngliche Messunsicherheit bei Forschungsergebnissen angemessen berücksichtigt – stattdessen wurde den Forschern beigebracht, sich auf die Vorspiegelung statistischer Ansätze zu verlassen, um ihre Ergebnisse präziser, statistisch signifikanter und damit „wahrer“ erscheinen zu lassen.

——————————–

Kommentar des Autors:

Ich würde mich wirklich freuen, wenn ich in diesem Punkt widerlegt werden würde. Aber bis jetzt hat noch niemand etwas anderes als „mein Statistikbuch sagt …“ vorgelegt. Wer bin ich, dass ich ihren Statistikbüchern widerspreche?

Aber ich behaupte, dass ihre Statistikbücher nicht über das gleiche Thema sprechen (und keine anderen Ansichten zulassen). Man muss schon ziemlich lange suchen, um die korrekte Methode zu finden, mit der zwei Werte mit absoluter Messunsicherheit addiert werden sollen (wie in 10 cm ± 1 cm plus 20 cm ± 5 cm). Es gibt einfach zu viele ähnliche Wörter und Wortkombinationen, die den Internet-Suchmaschinen „gleich erscheinen“. Das Beste, was ich gefunden habe, sind YouTubes zur Physik.
Also, meine Herausforderung an die Herausforderer: Nennen Sie ein kindlich einfaches Beispiel, wie ich es verwendet habe, zwei Messungen mit absoluten Messunsicherheiten, die zueinander addiert werden. Die Arithmetik, ein visuelles Beispiel für die Addition mit Unsicherheiten (auf einer Skala, einem Lineal, einem Thermometer, beim Zählen von Bären, Pokerchips, was auch immer) und zeigen Sie, wie sie physikalisch addiert werden. Wenn Ihre Veranschaulichung gültig ist und du zu einem anderen Ergebnis kommst als ich, dann haben Sie gewonnen!  Versuchen Sie es mit den Würfeln. Oder mit einem Zahlenbeispiel, wie es in Plus oder Minus verwendet wird.

Link: https://wattsupwiththat.com/2023/01/03/unknown-uncertain-or-both/

Übersetzt von Christian Freuer für das EIKE

 




Zahlen – verzwickte, verzwickte Zahlen: Teil 3

Kip Hansen

[Alle Hervorhebungen in diesem Beitrag im Original]

In dieser Reihe von Essays geht es um Zahlen. Nicht die von der Regierung kontrollierten Lotteriespiele oder die ältere Version, die von kriminellen Organisationen in jeder US-Stadt betrieben wird, sondern nur diese: „Eine Zahl ist ein mathematisches Objekt, das zum Zählen, Messen und Bezeichnen verwendet wird. Die ursprünglichen Beispiele sind die natürlichen Zahlen 1, 2, 3, 4 und so weiter.“ Ein Großteil der Wissenschaft (in fast allen Disziplinen) beschäftigt sich mit Messungen aller Art – Messungen, die am häufigsten als numerische Größen ausgedrückt werden – eben als Zahlen.

In Teil 1 dieser Reihe [in deutscher Übersetzung hier] wurde darauf hingewiesen, dass „Zahlen nur Zahlen sind“. Mit Zahlen lassen sich viele interessante Dinge anstellen, und noch viel interessantere Dinge lassen sich mit Zahlenmengen – Datensätzen und Zeitreihen – durch die Magie der statistischen Analyse und statistischer Mathematikprogramme anstellen. Was mit den Zahlen gemacht werden kann, ist jedoch nicht dasselbe wie mit den „Dingen“, die die Zahlen aufzählen. Dinge wie Kilogramm, Hertz-Frequenz als Zyklen pro Sekunde, Längen, Temperaturen in verschiedenen Graden, Farbe als Frequenz des ausgestrahlten oder reflektierten Lichts, Dichte, Härte – all die messbaren Eigenschaften der physikalischen Materie, einschließlich derer, die Qualitäten sind. Wenn die Zahlen einer Sache so behandelt werden, als ob sie die aufgezählte(n) Sache(n) sind (oder mit ihnen identisch sind), dann ist ein Problem entstanden – die Verdinglichung hat stattgefunden, jemand ist dazu gekommen“ … etwas Abstraktes als eine physische Sache zu betrachten oder zu behandeln.“

In Teil 2 [in deutscher Übersetzung hier] dieser Serie ging es um die Gründe, warum man keine Durchschnittstemperaturen bilden kann. Diese Tatsache ist für die meisten etwas schwieriger zu verstehen, da es eine alltägliche Praxis ist, Durchschnittswerte für Temperaturen zu bilden und von der „Durchschnittstemperatur“ eines Tages, einer Stadt, einer Region oder sogar des gesamten Globus‘ zu sprechen. Wenn also gezeigt wird, dass diese Praxis wissenschaftlich nicht korrekt ist und die Ergebnisse unsinnig sind (außer im einfachsten, alltäglichen pragmatischen Sinne), kommt es zu Verwirrung und Widerspruch.

In diesem dritten und letzten Teil der Serie werde ich auf die Gründe eingehen, warum die Temperaturen nicht gemittelt werden können und warum die Ergebnisse nicht das wiedergeben, was sie vorgeben zu sein.

In diesem Aufsatz werde ich die „Mittelwertbildung von Temperaturen“ auf ihre heutige Verwendung in der Klimawissenschaft beschränken, bei der durchschnittliche Temperaturen, die im Laufe der Zeit an unterschiedlichen Orten gemessen wurden, als Beweis dafür verwendet werden, dass das Erdklima insgesamt mehr Energie speichert und somit „wärmer“ wird. Auf Climate.gov wird es so ausgedrückt:

„Indem die Menschen der Atmosphäre mehr Kohlendioxid zuführen, verstärken sie den natürlichen Treibhauseffekt, wodurch die globale Temperatur ansteigt. Nach Beobachtungen des NOAA Global Monitoring Lab war im Jahr 2021 Kohlendioxid allein für etwa zwei Drittel der gesamten Erwärmung aller vom Menschen erzeugten Treibhausgase verantwortlich.“

Oder dies aus dem Abschnitt der NY Times „The Science of Climate Change Explained: Facts, Evidence and Proof – Definitive answers to the big questions“:

„Wir wissen, dass dies wahr ist, dank einer überwältigenden Fülle von Beweisen mittels Temperaturmessungen an Wetterstationen und auf Schiffen ab Mitte des 18. Jahrhunderts. Später begannen Wissenschaftler, die Oberflächentemperaturen mit Satelliten zu verfolgen und in geologischen Aufzeichnungen nach Hinweisen auf den Klimawandel zu suchen. Zusammengenommen erzählen diese Daten alle die gleiche Geschichte: Die Erde wird heißer.“

Es gibt viele unterschiedliche Meinungen darüber, ob diese Aussage wirklich den Tatsachen entspricht, aber ich will mit dem Zitat nur zeigen, dass die „globale Temperatur“ als Maß für die „globale Erwärmung“ dargestellt wird. Aber wie ich in Teil 2 gezeigt habe, ist die Temperatur kein Maß für die Wärme (oder den Wärmeinhalt). Selbst wenn also die globale Temperatur (falls es so etwas gibt) steigt, sagt uns dieses Maß [„ein System zur Messung von etwas“] nicht, ob das Klima der Erde an Wärme gewinnt oder nicht.

[Wie ich bereits sagte, erwärmt sich das Erdklima nach meinem Verständnis seit Mitte oder Ende der 1700er Jahre, als die Erde die kleine Eiszeit hinter sich ließ. ]

Inwiefern ist die Temperatur kein Maß für die Wärme?

Die folgenden Definitionen und Formeln stammen von der technischen Website BrightHubEngineering:

Gesamtwärmegehalt der Luft – Der Gesamtwärmegehalt der Luft ist die Summe aus der fühlbaren Wärme der Luft und der latenten Wärme der Luft. Daraus folgt:

Gesamtwärme der Luft = SH + LH

Die fühlbare Wärme (SH) hängt von der potentiellen Temperatur der Luft ab, während die latente Wärme (LH) von der Taupunktstemperatur der Luft abhängt, so dass die Gesamtwärmemenge der Luft von der fühlbaren und der latenten Temperatur (Taupunkt) der Luft abhängt. Außerdem kann es für jede Kombination von potentieller- und Taupunkttemperatur nur eine pseudopotentielle Temperatur geben, so dass die Gesamtwärmemenge in der Luft auch von der Feuchttemperatur abhängt.“

Die aktuellen Versionen der globalen mittleren Lufttemperatur (und davon gibt es viele) werden oft als „Anomalien“ (Differenzen) der Durchschnittstemperatur des aktuellen Zeitraums (täglich, monatlich, jährlich) gegenüber der Durchschnittstemperatur eines früheren 30-jährigen Basiszeitraums angegeben (es gibt keinen Standard – Earth Observatory – der vorherige Link – verwendet 1951-1980 – andere gemeldete Anomalien verwenden 1981-2010 und 1991-2020). Bei diesen Anomalien handelt es sich um Differenzen von Durchschnittswerten zu anderen Durchschnittswerten, die so verwendet werden, als ob die numerischen Ergebnisse in Grad (normalerweise °F oder °C) angegeben werden könnten, als ob es sich bei der Zahl um eine tatsächliche Temperatur handelte. In keinem Fall – selbst wenn die Zahl tatsächlich eine Temperatur darstellen würde – würde die gemeldete numerische Zahl ein größeres oder kleineres Maß an Wärme darstellen. Wie im obigen Absatz erwähnt, benötigt man mehr Informationen, um aus der Temperatur die Wärme zu ermitteln.

[Gemeint ist Folgendes {vereinfacht!}: Eine Luftmasse aus der Sahara mit einer Temperatur von 40°C und einem Taupunkt von 0°C hat einen geringeren Gesamt-Wärmeinhalt als eine Luftmasse über tropischen Ozeanen mit einer Temperatur von 28°C und einem Taupunkt von 26°C. Konkretes Beispiel: Fall 1: Lufttemperatur 17°C, Taupunkt -1°C ergibt 47°C Gesamt-Wärmeinhalt. Fall 2: Lufttemperatur 16°C, Taupunkt 13°C ergibt einen solchen von 63°C! Oder anders erklärt: Würde man im Fall 2 die gesamte latente Wärme in fühlbare Temperatur umwandeln, ergäbe sich eine Lufttemperatur von 63°C bei einer Relativen Luftfeuchtigkeit von Null Prozent! Die dabei frei werdende Wärme entspricht genau der Wärme, die durch die Verdunstung dieser Feuchtemenge verbraucht worden ist. Man erkennt hierbei auch, welche Größenordnung die latente Wärme hat.  A. d. Übers.]

[Im Folgenden finden Sie die Formeln zur Bestimmung des Wärmeinhalts einer beliebigen Luftmenge – denken Sie zum Beispiel an den Kubikmeter Luft, der eine MMTS oder einen Stevenson Screen in einer Wetterstation umgibt. Es ist nicht unbedingt notwendig, diese Formeln zu verstehen, um den Sinn dieses Aufsatzes zu begreifen – die Leser können sie überfliegen, wenn sie nicht besonders an den komplizierten Details interessiert sind.]

Zunächst müssen wir die fühlbare Wärme (ganz einfach „die Wärme, die gefühlt werden kann“) bestimmen, was wie folgt geschieht:

Die fühlbare Wärme der Luft wird wie folgt berechnet:

SH = m*0,133*DBT

Dabei ist m die Masse der trockenen Luft, 0,133 ist die spezifische Wärme der Luft in Kcal/kg und DBT ist die Trocken-Temperatur der Luft.

Wir müssen auch die latente Wärme bestimmen:

Die latente Wärme der Luft wird wie folgt berechnet:

LH = m*w*hw

Dabei ist m die Masse der trockenen Luft, w die spezifische Feuchtigkeit der trockenen Luft und hw die spezifische Enthalpie des Wasserdampfes, die aus den Dampftabellen als Enthalpie des Wasserdampfes bei Taupunkttemperatur entnommen wird.

Wenn wir uns die Temperaturaufzeichnungen einer Wetterstation ansehen, sehen wir nicht immer die Messgrößen, die wir brauchen, um herauszufinden, wie viel Wärme in der Luft um den Stevenson Screen oder den MMTS Deep L Sensor enthalten ist.

Um den Gesamtwärmegehalt der Luft (ein bestimmtes Luftvolumen) zu berechnen, benötigen wir Folgendes:

1. Die Masse der fraglichen Luft. Die Masse der Luft erfordert „Volumen“ und „Luftdruck“ – die Masse der Luft in einem Kubikmeter Luft nimmt mit steigendem Luftdruck zu.

2. Die relative Luftfeuchtigkeit – und hier geraten wir ein wenig ins Ungewisse, denn die Luftfeuchtigkeit ist nicht einfach. Aber wir werden von der modernen Technologie gerettet – denn „dafür gibt es eine Website“. Um diese Parameter zu sortieren, können wir den praktischen Rechner zur Berechnung von Taupunkt und Feuchttemperatur aus der relativen Luftfeuchtigkeit verwenden.

Ich hoffe, die Leser erwarten nicht von mir, dass ich den Wärmeinhalt der Luft an einer Wetterstation zu einem bestimmten Zeitpunkt berechne. Ich möchte nur klarstellen, dass dies möglich ist, aber nicht gemacht wird – und weil es nicht gemacht wird, haben wir kein zuverlässiges Maß für den Wärmeinhalt der Luft zu einem bestimmten Zeitpunkt und somit auch kein zuverlässiges Maß für die regionale oder globale Wärme.

Versuchen wir herauszufinden, warum sie nicht berechnet und verwendet wird, obwohl der Taschenrechner auf Ihrem Smartphone leistungsfähig genug ist, um die Berechnungen durchzuführen. Hier sind die meteorologischen Beobachtungen einer CO-OPS-Wetterstation, die ausgewählt wurde, weil sie Temperatur, Luftdruck und relative Luftfeuchtigkeit meldet (nicht alle Stationen tun dies oder haben diese Informationen öffentlich zugänglich).  Beachten Sie, dass sich diese Wetterstation direkt am Wasser befindet – buchstäblich nur wenige Meter vom Flussufer entfernt.

(Die Leser können die Diagramme und Erklärungen schnell überfliegen – bis zur Zeile mit den Tilden (~~~))

Diese Wetterstation zeigt auch Windgeschwindigkeit und -richtung an (die Windrichtung ist auf diesem Bild schwer zu erkennen, siehe Link oben):

Die Windgeschwindigkeit wird in Metern pro Sekunde angegeben.  Der eine Kubikmeter Luft, der den MMTS-Sensor umgibt, ist in der Regel nicht von einer Sechs-Sekunden-Messung zur nächsten gleich, schon gar nicht bei den Sechs-Minuten-Mittelwerten.

Um die Beziehung zwischen den drei wichtigen Messgrößen zu verdeutlichen, habe ich sie übereinander gelegt:

Temperatur (blau) und relative Luftfeuchtigkeit (bernsteinfarben) scheinen einander entgegengesetzt zu sein, während der Luftdruck (grün) mehr oder weniger unabhängig ist. Diese Beziehungen sind jedoch eng miteinander verknüpft, wie diese eintägige Grafik zeigt:

Bei der rot eingekreisten Luftdruckverschiebung handelt es sich um eine Front, die gegen Mitternacht durchzieht und einen radikalen Temperaturabfall und einen ebenso radikalen Anstieg der relativen Luftfeuchtigkeit verursacht.

~~~~~~~~~~~~~~~~~~~~~

Wärme ist eine extensive Eigenschaft der Materie – sie ist eine Energiemenge – und kann daher addiert, geteilt und gemittelt werden. Dies steht im Gegensatz zur Temperatur, die eine qualitativ intensive Eigenschaft ist. Temperatur lässt sich nicht zu Temperatur addieren und kann daher nicht gemittelt werden (siehe Teil 2).

Ein großer Teil der Klimawissenschaft befasst sich mit der Energiespeicherung im Klimasystem – die möglicherweise stattfindet – aber in einem Punkt können wir uns sicher sein: gemittelte Temperaturaufzeichnungen sind kein Beweis dafür.

Der Beweis für einen zunehmenden Wärmeinhalt des Erdklimas erfordert wissenschaftliche Messungen der Wärme über den Zeitraum des Klimas – mindestens 30 Jahre.  Es gibt eine ganze Reihe von Proxies, die nach Ansicht des IPCC und anderer in dieser Hinsicht brauchbar sind, darunter verschiedene Formen von Temperaturmittelwerten und sogar kombinierte Mittelwerte der Temperaturen verschiedener Arten von Objekten, wie z. B. die aus Satellitenbeobachtungen berechnete Hauttemperatur der Meeresoberfläche und krigierte Anomalien der Oberflächenlufttemperatur aus gemittelten Thermometerablesungen. Keines dieser Verfahren ist natürlich in Bezug auf die Physik der Thermodynamik gültig (siehe Teil 2).

[Proxy: „Eine Variable, die zur Modellierung oder Generierung von Daten verwendet wird, von denen angenommen wird, dass sie den Daten ähneln, die mit einer anderen Variablen verbunden sind, die normalerweise schwieriger zu erforschen ist.“ [Quelle] ]

Einige dieser Näherungswerte für die (zunehmende oder abnehmende) Erwärmung des Erdklimas sind bekanntlich alles andere als streng wissenschaftlich.  Die von Satelliten gemessene Temperatur der Meeresoberfläche misst die Temperatur der obersten paar Millimeter des Meeres. Es handelt sich nicht um die Temperatur eines bestimmten Volumens des Meerwassers oder des Wassers unter der Oberfläche, dessen Temperatur sich in der Tiefe ändert. Die tatsächlichen Temperaturen des Meeres sind äußerst kompliziert und können teilweise nicht einmal gemessen werden.

Es liegt auf der Hand, dass die Mittelung der Temperaturen an der Meeresoberfläche mit den 2-Meter-Lufttemperaturen auch kein Maß für die Wärme im Klimasystem der Erde ergibt.

Unter dem Strich:

1. Um die Behauptung zu untermauern, dass das Klimasystem der Erde „heißer wird“, muss man eine langfristige Zeitreihe von Messungen der Wärme im Klimasystem haben.

2. Die derzeitigen Datensätze zur globalen Mitteltemperatur messen keine Wärme und können daher keinen Beweis für Punkt 1 liefern.

3. Das Fehlen einer solchen Zeitreihe bedeutet nicht, dass das Erdklima nicht an Energie (Wärme) zunimmt – es bedeutet lediglich, dass wir keine verlässlichen Messwerte dafür haben.

4. Die Klimawissenschaft hat vielleicht einige Beweise für den langfristigen Energiegewinn oder das, was gemeinhin als „Energiebudget der Erde“ bezeichnet wird – Energiezufuhr/Energieabfuhr – aber es scheint in der laufenden Klimakontroverse nicht zu dominieren. Die neueste Studie zeigt, dass wir den momentanen Strahlungsantrieb immer noch nicht direkt messen können. „Diese fundamentale Messgröße wurde bisher weltweit nicht direkt beobachtet, und frühere Schätzungen stammen aus Modellen. Dies liegt zum Teil daran, dass die derzeitigen weltraumgestützten Instrumente nicht in der Lage sind, den momentanen Strahlungsantrieb von der Strahlungsantwort des Klimas zu unterscheiden“. Es kann sein, dass zukünftige Satellitenmissionen in der Lage sein werden, die ein- und ausgehende Energie der Erde direkt und genau zu messen.

Kommentar des Autors:

Diese Reihe baut auf den Grundlagen der Quantifizierung auf – dem Zählen der Anzahl von Dingen. Riesige und schwerwiegende wissenschaftliche Fehler entstehen, wenn die gezählten Dinge nicht wirklich das sind, was man zu zählen glaubt. Einer dieser Fehler ist die seltsame, unphysikalische Behauptung, die Temperatur sei ein Ersatz für die gemessene Wärme.

Was die Behauptung angeht, dass die Erde „heißer“ wird – die globale Durchschnittstemperatur (wie sie behauptet wird) liegt derzeit bei knapp 15°C oder etwa 58,8°F. Nach meinen Maßstäben kühl, aber sicher nicht heiß.

In diesem speziellen Fall habe ich das Konzept vorgestellt, dass Temperaturen, Temperaturmessungen in beliebigen Graden, intensive Eigenschaften der Materie sind und nicht addiert, multipliziert oder anschließend geteilt werden können, was die Bildung von Durchschnittswerten für Temperaturen ausschließt. Man kann sicherlich eine Zahl finden, indem man die Temperatur von Los Angeles heute Mittag zur Temperatur von Chicago gestern Mittag addiert und durch 2 dividiert, aber das Ergebnis wird nicht die Temperatur eines beliebigen Ortes zu einem beliebigen Zeitpunkt sein. Dies gilt auch für eines der Probleme der globalen, regionalen, staatlichen, nationalen, wöchentlichen und jährlichen Temperaturen und ihrer Anomalien über verschiedene Zeiträume und Räume hinweg.

Temperaturdurchschnittswerte (oder ihre gemittelten Anomalien) haben auch alle Probleme von Durchschnittswerten im Allgemeinen (und Gesetze des Durchschnitts Teil 2 und Teil 3).

Viele Leute sind echte Fans der globalen Durchschnittstemperaturen …, aber ich möchte an ihre wahre Anwendung erinnern, wie sie von Steven Mosher beleuchtet wird: „Die globale Temperatur existiert. Sie hat eine präzise physikalische Bedeutung. Es ist diese Bedeutung, die es uns erlaubt zu sagen … Die LIA war kühler als heute … Es ist die Bedeutung, die es uns erlaubt zu sagen, dass die Tagseite des Planeten wärmer ist als die Nachtseite … Die gleiche Bedeutung, die es uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und Quecksilber wärmer ist. [Quelle] Und ich stimme von ganzem Herzen zu.  Aber nur das und nur das allein.

Link: https://wattsupwiththat.com/2022/08/23/numbers-tricky-tricky-numbers-part-3/

Übersetzt und ergänzt von Christian Freuer für das EIKE