Der ct-Wert gibt an, wie lange es gedauert hat, wie viele Zyklen notwendig waren, bis in einer Probe genügend genetisches Material vorhanden war, um SARS-CoV-2 nachzuweisen. Im Zusammenhang mit der heftigen Kritik am PCR-Test, den Corman und Drosten et al. entwickelt haben, über die wir hier berichtet haben, spielt der ct-Wert eine große Rolle. So schreiben Borger et al. (2020) in ihrer Kritik am von Corman, Drosten et al. entwickelten PCR-Test, der zum Standard der WHO-Empfehlungen geworden ist:

“PCR data evaluated as positive after a Ct value of 35 cycles are completely unreliable.”

Dessen ungeachtet wird im WHO-Protokoll, das auf dem Corman, Dorsten et al. Paper basiert, behauptet, es seien bis zu 45 Zyklen möglich, um reliable Ergebnisse zu erhalten:

“But an analytical result with a Ct value of 45 is scientifically and diagnostically absolutely meaningless (a reasonable Ct-value should not exceed 30).”



Dessen ungeachtet sind unzählige PCR-Tests im Umlauf, deren Hersteller den Cutoff-Point für den ct-Wert, ab dem die Ergebnisse nicht mehr reliabel sind, bei 40 und zum Teil noch über 40 ansetzt:

Der ct-Wert ist derzeit wohl ein Rettungsring für diejenigen, die im Meer der Willkür und der unterschiedlichen Anwendung eines PCR-Tests zu ertrinken drohen. Dies gesagt, fällt uns Werner Bergholz ein. Bergholz ist das, was man wohl einen Standardisierungsprofi nennt. Und in dieser Funktion hat Bergholz am 30. Oktober 2020 eine schriftliche Stellungnahme zur Öffentlichen Anhörung des Ausschusses für Gesundheit des Deutschen Bundestages abgegeben, in der er sich explizit mit der Frage beschäftigt, ob PCR-Tests ein zuverlässiges Maß für den Stand des Infektionsgeschehens in Deutschland sind.

Antwort: Sie sind es nicht.

Warum nicht?

Wichtigste Zutaten dafür, dass eine Messung brauchbar ist, sind Reliabilität und Validität.

Reliabilität bezieht sich auf die Konstanz in Zeit und Raum. Wenn ein Labor X die Probe Y analysiert, dann muss dabei dasselbe Ergebnis herauskommen, das herauskommt, wenn Labor X1 die Probe Y analysiert und wenn Labor X die Probe Y zweimal analysiert, dann muss jedes Mal dasselbe Ergebnis dabei herauskommen.

Validität bezieht sich darauf, dass der Test, der das Vorhandensein von SARS-CoV-2 feststellen soll, auch dazu geeignet ist, dieses Vorhandensein festzustellen und wenn ja, innnerhalb welchem Fehlerbereich.

Bergholz spricht hier von Vergleichbarkeit, meint aber mehr oder weniger dasselbe wie wir.

Validität bei PCR-Tests wird gemeinhin als Spezifizität und als Sensitivität angegeben. Erstere bezieht sich auf die Anzahl von positiven Testergebnissen, die falsch sind (false positives), Letztere auf die Anzahl der negativen Testergebnisse, die falsch sind (false negatives). Dazu kommen wir gleich.

Um die Vergleichbarkeit von Gewebeproben zu gewährleisten, ist es notwendig,

  • dass die Gewebeproben in gleicher Weise entnommen werden, dass die “Testumgebung” vergleichbar ist;

Um die Vergleichbarkeit der Analyse der Proben durch unterschiedliche Labore sicherzustellen, ist es unabdingbar, dass die Labore

  • einheitlich vorgehen,
  • denselben Test oder die selbe Klasse von Tests verwenden;
  • den Labortest unter vergleichbaren Bedingungen und unter Einsatz vergleichbarer Reagenzien durchführen und
  • die selben Daten zum Ergebnis des Tests übermitteln.

Keines der fünf Kriterien wird derzeit eingehalten. Die Bestimmung der Inzidenz von SARS-CoV-2 in der Bevölkerung ist ein einzigartiges Patchwork unterschiedlicher Vorgehensweisen, unterschiedlicher Erhebungs- und Analysemethoden. Eine Standardisierung des Vorgehens, so Bergholz, sei dringend geboten.

Zudem findet derzeit keinerlei Monitoring der falsch positiven oder falsch negativen Testhäufigkeit statt. Das ist vollkommen unwissenschaftlich. Jeder der sich mit Daten befasst, weiß, dass die Unsicherheit, mit der die Ergebnisse belastet sind, Bestandteil der Ergebnisse ist. Ohne die Angabe von Vertrauensintervallen oder Irrtumswahrscheinlichkeit sind wissenschaftliche Ergebnisse wertlos. Dennoch fehlt beides bei PCR-Tests. Dass alle Ergebnisse, die aus Labors an das RKI übermittelt werden korrekt sind, ist eines dieser Märchen, die Politdarsteller entweder selbst glauben oder auf keinen Fall der Öffentlichkeit mitteilen wollen.

Dabei ist nur gesunder Menschenverstand notwendig, um sich die vielen Punkte, an denen ein Fehler geschehen kann, zu vergegenwärtigen:

  • Proben können bei Entnahme verunreinigt werden;
  • Proben können im Labor kontaminiert werden;
  • Proben können verwechselt werden;
  • Eine Messung kann fehlerhaft vorgenommen werden;
  • Der Test-Kit kann fehlerhaft sein;
  • Proben können zerstört werden (was in diesen Fällen, die sicher vorkommen, geschieht, ist unbekannt);
  • Ergebnisse können falsch übermittelt werden;

Gerade ein immenses Aufkommen, wie es derzeit in Labors zu verzeichnen ist, führt mit Sicherheit dazu, dass die Zahl der Fehler sehr hoch ist. In Unternehmen nennt man so etwas Ausschuss. Selbst bei hochstandardisierten Prozessen kann Ausschuss nicht ausgeschlossen werden. Aber deutsche Politdarsteller wollen der Öffentlichkeit erzählen, dass alle positiven Tests, die beim RKI gezählt werden, fehlerfrei sind, dass es in den Labors keinerlei Ausschuss gibt. Das ist absurd.

Wohlgemerkt, die bislang besprochenen Fehler sind nicht die Fehler, die dem PCR-Test immanent sind, die Fehler, die er quasi eingebaut hat: Spezifiziät und Sensitivität. Bergholz hat in seiner Stellungnahme eine Beispielrechnung, die in dieser Hinsicht sehr aufschlussreich ist:

“Bei 10 000 Tests, 1% wirklich Infizierte (also echt Positive), einer Spezifität von 1,4% und 98% Sensitivität (Werte aus dem Ringversuch vom April) ergibt der Test 98 echt Positive [1% von 10.000 minus 2% Fehler (Sensitivität) = 98) und zusätzlich 140 falsch Positive [1,4% Fehler bei Spezifizität]. Das heißt der positive Vorhersagewert (PPV = positive predictive value) beträgt 98/(98+140)x100% = 41%. Mit anderen Worten, es gibt mehr falsch Positive als echt Positive, also ein Messfehler grösser als ein Faktor 2.

Es ist schlicht unverständlich, dass dies bei der Aufbereitung der Rohdaten unberücksichtigt bleibt!”

Was Bergholz hier anspricht, ist, dass das Problem mit false positives dann, wenn die Häufigkeit eines Virus in einer Bevölkerung gering ist, erheblich ist. Wir haben das einmal für Inzidenzen von 1%, 2% und 4% durchgespielt. Das Ergebnis sieht wie folgt aus:




Operationalisiert man die Inzidenz von SARS-CoV-2 als Anteil der positiv Getesteten an allen Getesteten, dann beträgt die Inzidenz in Deutschland derzeit 4,1% und befindet sich damit in einem Bereich, in dem man mit rund 75% Test-Akkuratheit rechnen kann.

75% Test-Akkuratheit ist nicht wirklich der Goldstandard, denn eine Fehlerquote von 25%, mit anderen Worten, 25% der offiziellen Testangaben wären, auf Basis einer Spezifizität von 1,4% falsch, false positiv, ist eher erheblich. Vermutlich ist darin die Ursache dafür zu sehen, dass in Florida nunmehr versucht wird, über den ct-Wert zumindest ein wenig Verlässlichkeit in die Daten zu bringen.

Um verlässliche Angaben über die Verbreitung von SARS-CoV-2 in einer Bevölkerung machen zu können, immer vorausgesetzt, man will das und ist nicht an Zahlen interessiert, die so hoch wie nur möglich ausfallen, wäre es somit notwendig, die Tests, den Testablauf zu standardisieren, die zu erwartende Fehlerrate der veröffentlichten Zahlen anzugeben sowie eine Untersuchung dazu zu veranlassen, wie viele fehlerhafte Tests dadurch entstehen, dass Proben verunreinigt oder verwechselt werden oder die Häufigkeit zu untersuchen, mit der ein anderer Fehler unterläuft. Das Ergebnis wäre eine geringere Anzahl positiv Getesteter, und es wäre ein Mehr an Ehrlichkeit gegenüber der Öffentlichkeit, der vorgemacht wird, die veröffentlichten Zahlen wären exakt, ohne Fehler und ohne Makel.

So viel Ehrlichkeit ist natürlich politisch nicht gewollt.

der Beitrag erschien zuerst bei ScienceFiles hier

 

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken