Grüne Hastigkeit wird die Wasserstoff-Blase platzen lassen

Um die Vortäuschung ihrer Realisierbarkeit zu stützen, halten sich die Politiker
für genötigt, nach Wasserstoff als einem Energieträger für jene Sektoren zu rufen, bei denen es am schwierigsten ist, einen Anschein von Dekarbonisierung zu erwecken- nämlich die Stabilisierung des Energiesystems, Schwertransporte zu Land und zur See, Prozesswärme für die Industrie sowie für die Spitzenlast der Heizung im Winter, wenn die auf Erdwärme bzw. Grundwasser beruhenden Wärmepumpen gerade dann ausfallen, wenn sie am meisten benötigt werden.

Das Vereinigte Königreich ist  – wie stets – wahrlich ein Anführer in dieser Angelegenheit und die Net-Zero-Gesetze von Mrs May könnten, wenn man sie nicht abschafft, unsere Wirtschaft weiter vergiften. Und das noch lange nachdem ihre Unzulänglichkeit in Bezug auf den Brexit vergessen und vielleicht sogar verziehen ist.

Das Problem ist nicht nur eins von untragbaren Kosten und letztlich von ihrer Unrealisierbarkeit, obwohl Net Zero gewiss sehr teuer ist und auch scheitern wird. Der marginal erscheinende Unterschied zwischen einer 80-prozentigen Emissions-Reduktion und dem Net Zero-Ziel würde gewiss eine weitaus größere Kostensteigerung als diese zusätzlichen 20 Prozent bewirken. Präzise Abschätzungen sind nicht möglich, denn die Probleme sind extrem; aber eine Verdoppelung der Gesamtkosten wäre überhaupt nicht unwahrscheinlich.
Und es kann kein Zweifel daran bestehen, dass es am Ende unerreichbar ist – denn zur Zeit kann die Illusion der „Wenig Kohlenstoff-Transition (Low Carb)“ nur deshalb aufrecht erhalten werden, weil die grundsätzlich nicht existenzfähigen grünen Technologien durchweg parasitär sind, weil sie auf der hohen Produktivität Kohlenstoff-basierter Treibstoffe beruhen – sowohl in Inland als auch besonders im internationalen Ausland.
Wind- und Solarstrom-Aufzeichnungen erhalten die großen Überschriften, aber das UK-System wird durch Gas und Kernkraft gestützt – und bei Gelegenheit auch durch Kohle. Die Kosten der erneuerbaren Anlagen sind zwar hoch, aber noch im Zaum gehalten, weil ihre Produktion hauptsächlich mit fossilen Energieträgern erfolgt.
Wenn unser zunehmend fragiles Stromversorgungssystem mit teuren Batterien und durch eine mit Wasserstoff (H2) betriebene Spitzenlast-Stromerzeugung stabilisiert wird und wenn der Anteil der erneuerbaren Energie bei der Herstellung von Solarpaneelen und Windturbinen ansteigt, werden die Systemkosten und die Kapitalkosten zum Himmel aufsteigen.

In dem unvermeidbaren Debakel wird die prinzipielle technologische Katastrophe tatsächlich die Wasserstoffwirtschaft selbst sein. Das ist im Grunde bedauerlich, weil dieses schwierige aber interessante Gas eine klare und authentische Aussicht als universeller Energieträger in einer hocheffizienten und sauberen Gesellschaft hat. Allerdings ist diese Aussicht von der thermodynamischen Qualität des primären Energieeinsatzes abhängig. (Anm.: Wasserstoff kommt in der Natur nicht als Gas vor; es muss unter beträchtlichem Energieaufwand „künstlich“ hergestellt werden. G.K.)
Nur sehr fortschrittliche Kernkraft-Technologien werden darin Erfolg haben – eine Feststellung des visionären Physikers Cesare Marchetti, damals bei Euratom. Er empfahl diese Idee in einer ingenieurtechnisch realisierbaren Form, indem er Hochtemperatur-Kernreaktoren (HTR) und Katalysatoren zur thermischen Aufspaltung von Meerwasser vorschlug, um sehr billigen Wasserstoff mit wenigen unerwünschten Nebenprodukten zu erzeugen.
Dieses brillante Konzept ist allerdings von enormen und noch ungelösten Schwierigkeiten in der Nuklear- und Chemietechnik gekennzeichnet. Die Temperaturen sind sehr hoch, was spezielle Werkstoffe zum Einschluss des Prozesses erforderlich macht. Und ein optimaler Katalysator muss noch gefunden werden.
Aber es bestehen ernsthafte Erfolgsaussichten und weitsichtige Regierungen mit einem klaren und physikalisch realistischen Langzeitplan für die Energie-Unabhängigkeit – so wie die Regierung Japans – unterstützen diese Idee und ein ruhiger Fortschritt ist zu verzeichnen.

Allerdings treibt die verzweifelte, nur der Gesichtswahrung dienende Hast der britischen Regierung – neben anderen im Westen – sie zu einer Forcierung des kurzfristigen Wasserstoff-Einsatzes in unsere Wirtschaften – und das bedeutet, dass dieser Wasserstoff durch zwei relativ einfache, harmlose Gebrauchs-Produktionsverfahren erzeugt werden muss. Das ist zum einen die Elektrolyse von Wasser und zum anderen die chemische Behandlung von Naturgas (Methan) mittels Dampf, das ist die sog. Dampf-Methan-Reformierung (SMR).
Beide Verfahren sind dann akzeptabel, wenn Wasserstoff für sog. Nischen-Anwendungen und nichtenergetische Zwecke benötigt wird. Es ist jedoch ein Fehler, um sie zur Produktion des Energieträgers Wasserstoff in sehr großen Mengen, wie die jährlichen 270 TWh (TWh =Terawattstunden. 1 TWh ist 1 Milliarde kWh), einzusetzen, wie es das britische Komitee zum Klimawandel (CCC) in seinen „Net Zero“-Projektionen dargelegt hat.

Das bedeutet vier prinzipielle Nachteile.
Der erste: Die Kosten werden hoch sein. SMR’s und Elektrolyseanlagen sind teuer; sowohl für die Anlagen selbst als auch für deren Betrieb. Allein für die Dampfreformer (SMR) bedeutet der Vorschlag des CCC einen Kapitalaufwand von 40 Milliarden engl. Pfund Sterling. Und beide Anlagentypen haben keine lange Lebensdauer, was einen relativ kurzen neuen Kapitalbedarf nach sich zieht; insbesondere für die Elektrolyseanlagen.

Zweitens: Wegen der Verluste beider Verfahren bei der H2-Erzeugung (Konversion) sowie bei der Speicherung des Gases können diese Produkte beider Methoden prinzipiell niemalsmit ihren eigenen Erzeugungsenergien bzw. Energieträgern (Strom, Methan/Erdgas) konkurrieren. Der Verbraucher wird daher immer besser bedient sein, wenn er Elektrizität und Erdgas direkt nutzt.

Drittens: Die Dampf-Methan-Reformierung SMR emittiert große Mengen an Kohlendioxid, was das Net-Zero-Ziel völlig aufs Spiel setzen würde. Es sei denn, man rüstet die SMR-Anlagen auch noch mit Zusatzanlagen zur Kohlenstoff-Abtrennung und -Speicherung (CCS) aus. Das ist jedoch wieder teuer und im Übrigen im Großmaßstab nicht erhältlich.
Das führt zu einer weiteren Feststellung: Weil das Net-Zero-Ziel kritisch von Wasserstoff aus der SMR-Dampfreformierung abhängt – das CCC-Komitee verkündet, dass 80 Prozent der gewünschten H2-Menge aus diesen Anlagen kommen soll – können wir nun sehen, dass hinter den Wolken der Phrasen von fallenden Kosten der Erneuerbaren das Net Zero-Ziel des UK tatsächlich ein Glücksspiel zum Kohlenstoff-Einfang nebst Abtrennung ist.
Aber wenn CCS dennoch eingeführt wird, was durchaus möglich ist, dann wird es viel effektiver sein, das Methan direkt in Gasturbinen einzusetzen und dem Verbraucher zu erlauben, die Elektrizität direkt zu nutzen, anstatt Wasserstoff mit allen seinen Kosten, Problemen und Gefahren zu produzieren.

Schließlich Viertens: Die Herstellung von Wasserstoff sowohl durch Elektrolyse als auch durch SMR benötigt große Mengen an sauberem, frischem Wasser. Das gegenwärtige UK-Wasserstoff-Ziel würde den nationalen Wasserverbrauchzwischen 1 und 2 Prozent erhöhen. Und das zu einem Zeitpunkt, in dem das CCC-Komitee selbst von einer Frischwasser-Knappheit ausgeht; mit einem Mangel in einem Viertel der Vorratszonen des Landes.

Die Langzeit-Chance von Wasserstoff – nach Marchetti’s Modell – ist exzellent. Tatsächlich ist das wahrscheinlich die einzige herstellbare „Low Carbon Future“, die auch den Wohlstand der Menschen sichert. Diejenigen, die diese Zukunft aufs Spiel setzen, indem sie eine rapide und sub-optimale Einführung von Wasserstoff erzwingen wollen, um das gegenwärtige Theater der Unterstützung wenig brauchbarer Erneuerbarer fortzuführen, sollten ihre Köpfe senken und sich schämen.
(Ende des Artikels)

Notizen:
Dr. John Constable ist Energy-Editor bei der Global Warming Policy Foundation (GWPF), die eine viel gelesene Webseite “Thegwpf.com” betreibt.

Leiter der GWPF ist Dr. Benny Peiser.
Der obige Artikel ist auf der Webseite „The Conservative Woman“ erschienen und wurde daraufhin auch im o.e. GWPF-Blog veröffentlicht.

In der o. Publikation befindet sich zudem der Hinweis auf eine weitere Arbeit von J. Constable: „Hydrogen: The once and future fuel?“.
Erscheinungsdatum: 20.6.20 , publiziert von GWPF.

G.K.




Wo ist die „Klimakrise“ ?

Aber leider gibt es auch unverständliche Äußerungen von „Klima-Experten“, die es eigentlich besser wissen müssten. So stellte die GEOMAR-Mitarbeiterin Prof. Dr. Katja Matthes und dessen designierte Chefin, in einem Spiegel-Interview (in Heft 21/2020) zum Klimathema unter dem offenbar unvermeidbaren Titel „Coronakrise als Chance“ fest, dass die Lage beim Klima „dramatisch“ ist. Und dass nur eine Reduzierung der CO2-Emissionen und sogar dessen „künstliche“ Entfernung ausn der Athmosphärenotwendig ist, um einen weiteren Temperaturanstieg um 1,5 oder 2°C zu begrenzen. Das bedeutet, dass sie voll entsprechend dem Dogma des IPCC nur CO2 als Klimafaktor sieht und alle anderen Klimaeinflußfaktoren ignoriert, speziell die natürlichen Klimaschwankungen, wie sie seit Millionen und Jahrtausenden Jahren aufgetreten sind..

Für eine „Klimadramatik“ gibt es jedenfalls keinen sachlichen Grund – ganz im Gegenteil:  Es gab in der Vergangenheit (vor Existenz der Menschheit) wiederholt beim globalen Mittelwert Temperaturschwankungen zwischen 0°C und 28°C – heute liegen wir bei ca. 14,5°C – genau in der Mitte zwischen den Extremen, d.h. besser könnte es nicht sein. Wir haben heute das bestmögliche, das optimale Klima, wie das Wikipedia-Diagramm zeigt:

Was ist passiert, dass es zu einer derartigen Klimahysterie kommen konnte, wie sie in den Medien im Wettbewerb verbreitet wurde – vom CO2 als „Klimakiller“ bis hin zur „Klimakatastrophe“ und „Weltuntergang“ ?

Die Globaltemperatur ist tatsächlich in den letzten 100 Jahren um 1°C gestiegen !  Ein Grad C.  Unglaublich !

Nur sehr einfältige Typen können glauben oder erwarten, dass die Natur jedes Jahr die genau gleichen Temperaturen liefern kann/muß. Es gibt etwa ein Dutzend Klima-Einfluß-Faktoren: langfristige, mittelfristige und kurzfristige, Nur CO2 gehört nicht dazu. Es gibt in der Klimageschichte der Erde keinen Beweis dafür. Vielmehr gilt umgekehrt: Bei

Klimaerwärmung steigt das CO2-Niveau in der Atmosphäre durch Ausgasung aus den Ozeanen. Wärmeres Wasser kann weniger CO2 speichern. Und da bekanntlich in den Ozeanen 50 Mal mehr CO2 gespeichert ist als heute in der Atmosphäre, ist dieser Effekt vielfach in der Vergangenheit aufgetreten. Offenbar haben hier einige Leute etwas verwechselt.

Klimawandel, wahrgenommen primär als Temperaturschwankung, ist keineswegs neues Phänomen, verursacht durch die Menschheit (CO2-Emissionen), wie uns einige Klima-Scharlatane und Ideologen weismachen wollen (in ihrem Kampf gegen Kapitalismus und Industriegesellschaft), sondern eine völlig normale natürliche Erscheinung unseres Planeten seit dessen Existenz, genauso wie Erdbeben und Vulkanausbrüche  – und kein Mensch kann etwas dagegen machen!  Der „Kampf gegen den Klimawandel“ erinnert an Don Quichotte.

Bild 1: Grafik des Temperaturverlaufes der letzten 3200 Jahre erstellt von D.E. Koelle auf Basis von

J.R.Petit et al.: Climate and atmospheric history of the past 420 000 years from the Vostok ice core, Antarctica, Nature Vol.399, June 1999:

2 Th.Steuber et al.: Low-latitude seasonality of Cretaceous temperatures in warm and cold episodes, NATURE Vo.437, 27 Oct.2005

3 W.S.Broecker and G.H. Denon: What Drives Glacial Cycles ? Scientific American, Jan.1990

4 H.Kawamura et al.: Antarctic Dome C Temperature Reconstruction, Nature, 23 Aug.2007

5 J.Veizer et al.: Evidence for decoupling of atmospheric CO2 and global climate during the Phanerozoic eon, NATURE Vo.408, 7 Dec.2000

6 K.Kashiwaya et al.: Orbit-related long-term climate cycles revealed in a 12- MYr continental record from Lake Baikal, NATURE Vol410, 1 March 2001

In den letzten 8000 Jahren schwankte die mittlere Globaltemperatur regelmäßig um  +/- ein Grad C (Eddy-Zyklus von ca. 1070 Jahren). Und das war vor 8000 Jahren genauso der Fall wie heute !  Da ist kein anthropogener Einfluss zu erkennen. Im Gegenteil: Die regelmäßigen Temperatur-Maxima des  Eddy-Zyklus sind seit dem Holozän-Maximum vor 8000 Jahren um 0,7°C gefallen und das trotz des kontinuierlichen CO2-Anstieges von 200 auf 400 ppm, was nach der IPCC-Hypothese einen Anstieg um + 3°C hätte zur Folge haben müssen. Der IPCC, der die CO2-Hypothese propagiert hat, konnte bis heute keinen sachlichen oder historischen Nachweis dafür nennen – außer „Glauben“ (confidence). Das bestätigt, dass der IPCC keine wissenschaftliche, sondern eine politische Institution ist, bei der Wissenschaftler für ideologische und politische Ziele missbraucht werden. Seine Berichte müssen z.B. vor der Veröffentlichung von den beteiligten Regierungen geprüft und nach ihren Wünschen modifiziert werden. Ein Verfahren, dass es nur in der Klimaforschung gibt, die damit ihren früher einmal wissenschaftlichen Charakter weitgehend verloren hat.

Das obige Temperaturdiagramm der letzten 3200 Jahre, zeigt deutlich die Dominanz des natürlichen 1000-Jahreszyklus, wie er seit mindestens 8000 Jahren aufgetreten ist. Wir haben das letzte Maximum gerade überstanden, und in der Zukunft wird es wieder abwärts gehen (wenn sich die Astrophysik nicht geändert hat) und zwar völlig unabhängig von der CO2-Entwicklung.  Diese hat sich in den letzten 8000 Jahren von 200 auf 400 ppm verdoppelt, die Temperatur der Maxima hat sich aber um 0,7°C reduziert (anstatt laut der IPCC-Theorie um 3°C anzusteigen!). Tatsächlich gehört das heutige CO2-Niveau zu den niedrigsten der Erdgeschichte, das mehrfach Werte von 4000 bis 6000 ppm erreichte – ohne Schaden anzurichten – nur wesentlich stärkeren Pflanzenwuchs. Diesem verdanken wir die Kohle-Vorkommen auf der Erde. Wenn durch die Verbrennung heute CO2 freigesetzt wird, ist das nichts anderes als das CO2, das damals von der Pflanzen aus der Atmosphäre entnommen wurde.

Bild 2: Die Temperaturgeschichte der Erde in den letzten 500 Millionen Jahren. Sie zeigt gewaltige Klimawandel in der Vergangenheit (ohne Menschen !!)  und in den letzten 10 000 Jahren eine perfekte Mitteltemperatur mit Schwankungen um nur ± 1°C. Besser kann es nicht sein.

Die „Klimakrise“ ist in Wirklichkeit eine bedauerliche Wissens- und  Bildungskrise.




Wegen Strafandrohung gegen Naomi Seibt -CLINTEL schreibt offenen Brief an Merkel und Laschet

Offener Brief

 

Amsterdam, June 22 2020

 

 

Dr. Angela Merkel, Bundeskanzlerin, Bundesrepublik Deutschland – persönlich

Willy Brandt Strasse 1

10557 Berlin

 

Herr Armin Laschet, Ministerpräsident, Nordrhein-Westfalen – persönlich

Horionplatz 1

40213 Düsseldorf

 

 

Redefreiheit in Deutschland

Sehr geehrte Dr. Bundeskanzlerin, sehr geehrter Herr Ministerpräsident,

Die Climate Intelligence Group(CLINTEL) ist eine internationale Vereinigung von fast 900 Klima-wissenschaftlern, Forschern und Experten. Einige von uns haben begutachtete Forschungen in dem Bereich durchgeführt und veröffentlicht – und wurden deswegen angegriffen. CLINTEL sieht keinen Klima-Notstand. Die Rate der Erwärmung während der letzten drei Jahrzehnte war nur halb so groß wie die 0,34°C pro Dekade, welche im Jahre 1990 vom IPCC (1990, S. xxiv) auf der Grundlage unzuverlässiger Klimamodelle prognostiziert worden war.

 

Als Präsident von CLINTEL und Repräsentanten der Vereinigung in vielen Ländern schreibe ich Ihnen, um Ihre Aufmerksamkeit auf einen sich immer weiter ausweitenden Skandal zu lenken: dem betrügerischen Versuch der Landesanstalt für Medien(LfM) in Nordrhein-Westfalen, Frau Naomi Seibt zum Schweigen zu bringen, also eine 19 Jahre alte Bloggerin auf YouTube, die zusammen mit 88.000 weiteren Personen nach ausgiebigem Nachdenken und Forschen erkannt hat, dass die globale Erwärmung kein Notfall ist. Die LfM hat quasi-gerichtlich angeordnet, dass Frau Seibt zwei ihrer Videos aus YouTube zurückzuziehen habe – mit den Begründungen, a) dass ihre Videos (in den eigenen Worten der LfM) nicht „klimafreundlich“ seien, b) dass ihre Videos politische Empfehlungen enthalten und c) dass ihr Hinweis auf das nicht-„klimafreundliche“ Heartland Institutein ihren Videos eine ungesetzliche Werbung darstellt, welche ein jüngst beschlossenes Gesetz verletzt. Falls Frau Seibt sich weigert, auf diese Weise zum Schweigen gebracht zu werden, droht die LfM ihr eine Geldbuße in Höhe von 2400 Euro an oder für bis zu 28 Tage ins Gefängnis zu gehen.

 

Die Fakten:Das Heartland Institutewird nur in einem ihrer Videos erwähnt, aber dabei weist Frau Seibt ehrlich, augenblicklich und zweimal darauf hin, dass sie ein Mitglied des Instituts ist. Eine ungesetzliche Produktwerbung liegt nur dann vor, wenn derartige Verbindungen nicht offengelegt werden. Außerdem enthält jenes Video keinerlei politische Empfehlungen. Auch aus diesem Grunde wird kein Gesetz verletzt, wie es das LfM kolportiert hatte. Im zweiten Video, über das sich die LfM beschwert, wird das Heartland Institutenicht ein einziges Mal erwähnt, und es hat auch nichts wie auch immer mit demselben zu tun.

 

Der CLINTEL-Repräsentant von UK, Lord Monckton, hat der LfM dreimal geschrieben und verlangt, diese offensichtlichen Fehler nach §42 Bundesverwaltungsgesetz zu korrigieren, zusammen mit der Aufforderung an die LfM zu erklären, was Frau Seibt in ihren Videos sagen darf und was nicht, aber Seine Exzellenz hat bisher keine Antwort erhalten. Im Namen von Frau Seibt hat ein Anwalt Kopien der Korrespondenz zwischen der LfM und demjenigen verlangt, welcher die Aufmerksamkeit des LfM auf die Videos gelenkt hatte. LfM sandte eine einzige E-Mail, welche der Absender dreimal redigierte, doch hat die LfM nicht erwähnt, dass die Mail verändert worden war. Bei zivilisierter Rechtsprechung stellt eine solche nicht deklarierte Manipulation eine Missachtung des Gerichts dar. Der Anwalt verlangte auch mehr Zeit, um auf den Originalbrief der LfM angemessen antworten zu können, weil sich Frau Seibt zu der Zeit in stationärer Behandlung im Krankenhaus befand. Die LfM hat auf dieses Verlangen nicht geantwortet, obwohl es nachweislich bei ihr eingegangen war. Außerdem hat sie versäumt, Frau Seibt in diesem Fall anzuhören, bevor die quasi-gerichtliche Anordnung ausgegeben worden war. Die LfM veröffentlichte nachfolgend eine Presseerklärung des Inhalts, dass man Frau Seibt sehr wohl die Gelegenheit gegeben hatte, ihre Sicht der Dinge darzustellen, obwohl das in Wirklichkeit nicht der Fall war.

 

Das Gesetz:Die Europäische Menschenrechtskonvention sagt, dass Frau Seibt Anspruch auf Meinungs-, Vereinigungs-, Gedanken- und Gewissensfreiheit sowie auf Freiheit von Diskriminierung, insbesondere seitens der Behörden hat. Die Maßnahmen der LfM, das Landesrecht und der zwischenstaatliche Vertrag, unter dem die LfM zu handeln vorgibt, sind alle unvereinbar mit der Konvention. Außerdem setzt sich die LfM über den Inbegriff der zwei Prinzipien der Konvention bzgl. Rechtsprechung hinweg, welche da lauten a) nemo sit iudex in causa propria (niemand darf ein Richter in seiner eigenen Sache sein), und b) audiatur et altera pars(Hört die andere Seite an). Zu a): Die LfM hat in einer quasi-gesetzlichen Kapazität zu handeln vorgegeben in einem Fall, den sie selbst ins Rollen gebracht hatte. Sie ist also eine Partei und hat sich dadurch, dass sie in ihrem Verwaltungsakt den Begriff „klimafreundlich“ verwendet, um ihre Meinung in der Klimafrage zu charakterisieren, als weder unabhängig noch unparteiisch erwiesen. Zu b): Die LfM hat Frau Seibt niemals angehört.

Wir wären Ihnen dankbar, wenn Ihr Amt uns mitteilen würde, an welche Landes- und Bundespolizeibehörden wir ein Ersuchen richten sollten, gegen die LfM und die beiden Unterzeichner ihres Verwaltungsaktes zu ermitteln wegen Geldforderung mit Drohungen (Erpressung), Betrug (vorsätzliche Täuschung mit der Absicht, Gewinn oder Verlust zu erzielen) und vorsätzlichen Missbrauchs in einem öffentlichen Amt (Machtmissbrauch). Eine Zeugenaussage von Lord Monckton, der Kenntnis von dieser Angelegenheit hat, ist beigefügt. Schlüsselaspekte des Falles, die Anlass zur Besorgnis über die globale Erwärmung geben, deuten selbst eher auf Täuschung als auf wahre Wissenschaft hin.

 

Dr. A.J. Berkhout

President of CLINTEL

Zekeringstraat 41

1014 BV Amsterdam

www.clintel.org




Corona-Aufarbeitung: RKI – Ruhe in Frieden

Es geht ein Klagen durch das Land, allenthalben wird Kompetenzverlust und Stümperei bejammert. In der Tat sind andere Nationen, vor allem in Asien, dabei, uns auf vielen Feldern technisch und wissenschaftlich davon zu laufen. Dennoch ist Deutschland nach wie vor ein Cluster an hervorragendem Know-how und ein guter Wissenschaftsstandort, der auf vielen Gebieten zu Spitzenleistungen fähig ist. Das ist zunächst einmal eine gute Botschaft, noch besser wäre sie, wenn die entsprechenden Fähigkeiten auch entsprechend anerkannt, gefördert und vor allem genutzt werden würden. Besonders natürlich in einer Krise, die das Wohlergehen des ganzen Landes betrifft. So wie Corona.

Für die Einschätzung der Situation und den richtigen Weg zur Bewältigung braucht man ja nicht nur Mediziner, Virologen, Epidemiologen, Immunologen und dergleichen. Man braucht genauso Ökonomen und Mathematiker, Ingenieure und Praktiker, Sozialwissenschaftler und Kommunikations-Experten und vieles mehr. Eine Seuche und ihre Bewältigung ist ein komplexes System mit vielfachen Wechselwirkungen. Man kann das mit einer vollen Spagettischüssel vergleichen: Zupfst Du an einer Nudel, weißt du nie, wo sich dann an anderer Stelle etwas bewegt. „Ein komplexes System mit dem die meisten von uns schon einmal zu tun hatten, ist ein Kind, besonders ein Teenager“, formuliert der amerikanische Schriftsteller Michael Chrichton eine anschauliche Parallele. Man weiß eigentlich nie, welches Ereignis welche Reaktionen wann hervorruft. Ein Anstoß, der gestern ein bestimmtes Resultat erzielte, kann morgen zu einem vollkommen anderen Ergebnis führen.

Es liegt also nahe, wirklich alle Disziplinen zu mobilisieren und für eine Abschätzung der Wirkungen zu nutzen und auch offen gegenüber scheinbaren Außenseitern und ihren Ideen zu sein. Leider ist all dies in der Corona-Krise nicht geschehen. Die Bundesregierung verließ sich weitgehend auf die Empfehlungen einer einzigen Behörde, des Robert-Koch-Instituts (RKI), und weniger Wissenschaftler (an führender Stelle der Virologe Christian Drosten), die offenbar eifersüchtig ihre Pfründe bewachten und sorgfältig darauf achteten, dass abweichende Meinungen und Expertisen nicht oder kaum Gehör fanden.

Das wissenschaftliche Potenzial Deutschlands blieb ungenutzt

Daraus resultiert die wohl größte Tragik der Corona-Krise: Das wissenschaftliche Potenzial Deutschlands blieb ungenutzt. Es wurde nie eine der komplexen Situation angemessene interdisziplinäre Risikoabschätzung vorgenommen. Entsprechend eindimensional und mitunter möglicherweise kontraproduktiv waren die Maßnahmen – mit negativen Auswirkungen sowohl auf die Bekämpfung des Virus selbst als auch auf die Wirtschaftslage in Folge. Ich möchte diesen Aspekt hier einmal pars pro toto an einem konkreten Beispiel durchdeklinieren.

Wie so oft, stehen alle Informationen dazu in der Zeitung, es hat sie nur niemand richtig bemerkt oder bemerken wollen. Da Achgut.com während der Corona-Krise zu einer wichtigen Lektüre vieler Fachleute und Experten auf diesem Gebiet geworden ist, kommen von dieser Seite viele Hinweise an die Redaktion. So machte uns eine ganze Reihe von Lesern auf die Veröffentlichungen eines Spezialisten für Künstliche Intelligenz aufmerksam, der an der Technischen Hochschule in Ulm (THU) lehrt.

Professor Dr. Ralf Otte arbeitet dort im Fachgebiet Künstliche Intelligenz (KI) und ist Spezialist für sogenanntes „Data Mining“ und „Data Science“. Das ist eigentlich eine Ingenieurswissenschaft, die aber bei näherem Hinsehen auch gut geeignet ist, Prognosen abzuliefern. Etwa die Vorhersage von Emissionswerten in der Chemieindustrie, Prognosen von Betrugsversuchen bei Abrechnungen an Krankenkassen, Prognosen von Crashs bei Industrieprojekten und vieles mehr. Das ist seit Jahren sogar eine sehr gefragte Disziplin in der Industrie, weil Fehlerraten bei Datenauswertungen niedrig sein müssen, was unmittelbar einleuchtet, wenn man etwa an die Flugzeugindustrie denkt.

Und was hat so jemand mit Corona zu tun? Auf den ersten Blick nicht viel, der Mann ist schließlich kein Virologe oder Epidemiologe. Doch die Notwendigkeit, angesichts der dünnen Datenlage in Sachen Corona halbwegs verlässliche Vorhersagen zu machen, weckte schon im Februar seine berufliche Neugier, sagt Otte in mehreren Zeitungsbeiträgen. In einem Essay vom 15. Juni in den Diesbach-Medien schreibt er: „Ich muss zugeben, dass mich das SARS-CoV-2-Virus sehr erschreckt hat, für Mai hatte ich eine Reise an die HUAT University in Hubei geplant, doch die Gastvorlesungen konnte ich ganz sicher vergessen“.

Einige seiner Studenten kommen aus der Hubei-Provinz, das Virus begann ihn zu interessieren: „Das Problem bei SARS-CoV-2 war, dass es Mitte März nur sehr wenige Daten gab. Wir nennen das in der Fachwelt ein Small Data Problem. Damit umzugehen, ist viel schwieriger als mit Big Data-Themen, denn viele Data Mining Verfahren versagen beim Small Data, aber natürlich nicht alle.“ Und genau mit denen wollte Otte der Einschätzung der Pandemie auf den Grund gehen: „Das Robert-Koch-Institut (RKI) publizierte ab 4. März in seinen täglichen Lageberichten sogenannte Fallzahlen, und man nannte diese in den Medien sogar Infizierte. Das kam uns nicht schlüssig vor“.

Ausbreitung bereits für Dezember 2019/Anfang 2020 vermutet

Otte stellt in seinem Essay gleich zu Beginn klar, dass er eine exponentielle Corona-Ausbreitung bereits für Dezember 2019 bzw. Anfang 2020 vermutet. Dass dies nicht bemerkt wurde, kann aus seiner Sicht nun daran liegen, dass das Virus bei Millionen unentdeckt Infizierten entweder relativ harmlos ist oder dass es in der Bevölkerung bereits eine hohe Grundimmunität gegen diese neue Spielart des Coronavirus gab, was die Verbreitung verlangsamen würde. Otte nimmt in seinem Beitrag sogar beides an, insbesondere „weil die Durchseuchungsraten so schnell gefallen sind“, wie er zum Schluss des Essays ausführt.

Die veröffentlichten Zahlen des Robert-Koch-Instituts (RKI) und der Johns-Hopkins-Universität waren dennoch eine solide Basis, so Otte, um mit den Methoden der Künstlichen Intelligenz ein empirisches Modell zur Simulation der Fallzahlen, der Durchseuchungsrate und der Todesfälle zu entwickeln.

Das Ergebnis formulierte er in den oben erwähnten Diesbach-Medien (Weinheimer Nachrichten, Odenwälder Zeitung) so: „Ab dem 22. März zeichnete sich bereits ab, dass sich die Zahlen für Deutschland deutlich anders entwickeln werden als zum Beispiel in Italien. Ab dem 29. März waren wir auf Grundlage unserer Daten bereits ziemlich sicher, dass es den befürchteten Sturm nicht geben wird.“ Man habe bei den Auswertungen jedoch schnell festgestellt, dass die Fallzahlen des RKI wissenschaftlich nutzlos waren, weil die Anzahl der dafür durchgeführten Tests nicht dokumentiert sei. Weiter führt er aus: „Ich begann am 22. und 23. März dem RKI zu schreiben, teilte unsere Überlegungen mit, dass wir aktuell eventuell schon Millionen Infizierte hätten, bot unsere Hilfe an und bat um Informationen zu den Tests. Man bedankte sich höflich und behielt sich eine Prüfung der Briefe und Mails vor.“

Und spätestens ab hier beginnt eine Geschichte der Inkompetenz oder des Nicht-wissen-wollens seitens des RKI. „Bereits am 29. März konnten wir an den Zeitreihen der Todesfallzahlen erkennen, dass es bei uns nicht wie in Italien oder Spanien werden würde, ich schrieb dem RKI erneut und bot nochmals Unterstützung an. Aber man brauchte keine Hilfe“, sagt Otte in dem Essay. Auch der Weg über die Medien veränderte das Beharrungsvermögen der staatlichen Virusbekämpfer nicht. „Anfang April war uns klar, dass es in Deutschland nicht zu einem Ansturm auf unser Gesundheitswesen kommen würde.“ Otte gab im April in der Lokalzeitung seines Wohnortes Weinheim ein ausführliches Interview mit dem Titel: „Den befürchteten Sturm wird es nicht geben“ (Weinheimer Nachrichten, 7. April) . Heute wissen wir: Es gab ihn auch nicht. Otte lag mit seiner Prognose zum Verlauf der Epidemie systematisch richtig, damals und auch in der Folgezeit bis heute.

Der „Supergau“ der Krise

In einem neuen Beitrag mit dem Titel „Die Epidemie ist in Deutschland vorbei“ wurde Otte am 13. Juni erneut in seiner Regionalzeitung publiziert, und es wurde auf den längeren Essay von ihm verwiesen, welcher am 15. Juni erscheinen würde und aus dem oben bereits zitiert wurde. Im Essay führt Otte für die Öffentlichkeit dann aus: „Virologen, Mediziner und Politiker sprachen im März, sogar noch im April und Mai davon, dass wir am Anfang der Pandemie stehen würden. Aber stimmte das? Nein… In der Woche vor dem Lockdown (16.3. bis 22.3.) gab es zwar immer noch eine starke exponentielle Verbreitung des Virus, aber ab dem 23. März war die Verbreitung am Abschwächen und eine Woche später (ab dem 5. April) war die epidemiologische Welle sogar vorbei. Wir hatten also Glück in Deutschland! Es war Ostern und es war geschafft!“

Otte mag im Nachhinein weder den Lockdown noch die Politik verurteilen, allerdings dürfe man für eine ganzheitliche Bewertung der Lockdown-Maßnahmen die „schweren Nebenwirkungen“ nicht ausblenden.

Wirklich problematisch bewertet der KI-Spezialist im Essay, aber auch in seinem Beitrag in der Thüringer Landeszeitung vom 15. Juni (“ Warum die Pandemie vorbei ist und Thüringen recht hat“) die Vorgehensweise des Robert-Koch-Instituts. Hier liegen wohl handwerkliche Fehler vor, die solchen Institutionen und Verantwortlichen einfach nicht passieren dürfen. Er schreibt zum Beispiel: „Es ist natürlich klar, dass dann, wenn man die Anzahl der Tests um den Faktor 2,7 erhöht, auch viel mehr Fallzahlen generiert werden, was eine sehr schnelle Ausbreitung der Infektion suggeriert. So gelangten sehr störanfällige R-Werte in die Medien, doch sie bildeten das Geschehen nicht robust ab“, so der Tenor in all seinen Veröffentlichungen. Die täglich produzierten Fallzahlen des RKI zeigen ja nicht an, wie viele Infizierte es in Deutschland gibt, sondern nur, wie viele von den Infizierten mit dem Test pro Tag entdeckt werden. Um das Problem der Fallzahlabhängigkeit zu lösen, entwickelte Otte sogar einen eigenen, Robusten R-Wert und zeigt in seinem Essay, welche Auswirkungen das hat.

Der „Supergau“ der Krise sei für Otte jedoch die anfängliche Verwechslung von Fallsterblichkeit und Infektionssterblichkeit gewesen. Er schreibt im o.g. Essay: „Unsere Politiker und Virologen sprachen im Februar und noch März davon, dass es alleine in Deutschland bis zu 250.000 Tote geben könnte, oder gar Millionen! Doch auf Basis welcher Zahlen? Verwechselten Virologen und Mediziner oder nur die Medien etwa Fallsterblichkeit mit Infektionssterblichkeit? Wie auch immer, es war medial gesehen der Supergau der Krise.“ Otte schätzt bereits in den Weinheimer Nachrichten vom 7. April, „dass weniger als einer von tausend Infizierten an Covid-19 versterben würde.“ Die Verwechselung von Fallsterblichkeit mit Infektionssterblichkeit hatte das politische Geschehen jedoch bereits überrollt, bedauert er.

„Das ist keine Epidemie mehr“.

Die Fallsterblichkeit bezieht sich auf Menschen, die an oder mit Corona verstorben sind in Bezug auf jene, bei denen Corona amtlich festgestellt wurde (Fallzahlen). Die Infektionssterblichkeit bezieht sich jedoch auf die Gesamtheit der Infizierten in der Bevölkerung, und diese Anzahl kann, wie gesagt, in die Millionen gehen. Infizierte also, die teilweise überhaupt nicht gemerkt haben, dass sie das Corona-Virus in sich tragen. Nimmt man diese viel höhere Zahl zur Basis und setzt die Verstorbenen mit dieser Zahl ins Verhältnis, so kommt eine um Größenordnung geringere Gefahr heraus.

Und diese liegt – wie Otte bereits im April prognostiziert (und daran ändern auch einzelne Infektionscluster wie beim Fleischhersteller Tönnies nichts) – eben nur bei 0,1 Prozent. Auch bei Tönnies muss man zwischen Infizierten und ernsthaft Erkrankten unterscheiden (siehe zum Fall Tönnies auch Achgut.com: Bericht zur Coronalage 23.06.2020: Rinderwahn). Bei Tönnies wird es hoffentlich keinen einzigen Toten geben, aber ein riesiger Testapparat wurde in Bewegung gesetzt. Und es wird das passieren, was bei vergleichbarem Testaufwand woanders in ähnlicher Form passieren würde: Die Zahl der nachweislich Infizierten steigt erheblich. Das Virus ist und bleibt ja da und wer es sucht, der findet es. Und er findet in Deutschland auch eine nicht-alarmistische Perspektive: Denn trotz der hohen Zahlen von Infizierten stellt das Virus nur für sehr wenige, meist vorbelastete Menschen eine ernsthafte Gefahr dar, die natürliche Abwehr des Menschen funktioniert auch bei Corona.

Und was sagt Otte zur ominösen Dunkelziffer und der Durchseuchung der Bevölkerung? Derzeit, so Otte in den Weinheimer Nachrichten vom 13.6., der Thüringer Landeszeitung vom 15.6. und im Essay der Diesbach-Medien vom 15.6., sind in Deutschland höchstes 2 von 10.000 Menschen noch ansteckend infiziert. „Rechnen Sie das auf Ihre Heimatstadt hoch, das ist keine Epidemie mehr“.

Falsche Einschätzungen zur Gefahrenlage

Die wichtigsten Kritikpunkte von Seiten des KI-Professors gegenüber dem RKI möchte ich  daher kurz so zusammenfassen:

– Das RKI gab mehrmals falsche Einschätzungen zur Gefahrenlage ab.

– Das RKI berechnet falsche oder zumindest störanfällige R-Werte. Otte führt in seinen Interviews und Gastbeiträgen (wie oben gesagt) einen eignen, Robusten R-Wert ein, der das Geschehen wohl fallzahlunabhängig beschreiben könne.

– Das RKI erstellt zahlreiche Analysen auf Basis von Fallzahlen, ein wissenschaftliches Unding.

– Das RKI vermutet einen festen Faktor (11 bis 20) zwischen positiv Gemeldeten (Fallzahlen) und der sogenannten Dunkelziffer. Otte führt immer wieder aus, das dies irreführend sei, da Fallzahlen nicht testzahlunabhängig sind.

– Das RKI verwechselte zu Beginn seiner Analysen Fallsterblichkeit mit Infektionssterblichkeit. Otte nennt das den „Supergau der Krise“.

– Das RKI widerspricht daher falschen Sterblichkeitszahlen der Medien und führenden Virologen nicht (bis zu 250.000 mögliche Tote sagte Christian Drosten im Februar bzw. März voraus).

– Das RKI hat den wahrscheinlichen Anfang der Epidemie nicht richtig datiert. Otte schätzt erste (unentdeckte) Corona-Fälle in Deutschland bereits auf Dezember 2019 oder Anfang 2020 und nicht erst auf den 27.1. bei Webasto. Bei einer Exponential-Funktion für die Hochrechnung bedeuten diese Zeitdifferenzen „Welten“, die für die Bewertung der Krise alles entscheiden könnten.

– Das RKI bewertete die Gefahr wegen der Auslastung der Intensivbetten lange Zeit falsch oder kommunizierte zumindest falsch. Laut Otte gab es in Deutschland zu keinem einzigen Zeitpunkt die ernsthafte Gefahr, dass die Intensivbetten nicht ausreichen würden. Einschub der Redaktion: Aktuell sind weniger als 350 Menschen wegen Covid-19 in intensivmedizinischer Behandlung (Lagebericht RKI vom 23.6.), und es stehen aktuell tausende freie Intensivbetten zur Verfügung.

– Das RKI kann bis heute die Falsch-Positiv-Rate seiner Tests nicht beziffern. Entsprechende Anfragen von interessierten Fachleuten bleiben meist unbeantwortet. Otte berichtet in seinem Essay jedoch von einer persönlichen Mitteilung vom Präsidenten des RKI, Prof. Wieler, dass der Falsch-Positiv-Wert tatsächlich nicht bezifferbar sei.

– Otte warnt in seinen letzten Debattenbeiträgen aber ausführlich vor den Falsch-Positiven, weil die Messfehlerrate des RT-PCR-Tests in die Nähe der Durchseuchungsrate gelangt sei. Bei täglich 50.000 Messungen werden nach Ottes Schätzung jeden Tag ca. 250 Menschen als infiziert deklariert, die das nicht sind. Diese Menschen müssen in Quarantäne, obwohl sie nicht infiziert sind. Und das RKI meldete vor den Ausbrüchen in den Hotspot ca. täglich nur 200 bis 300 neue Fälle. Das RKI jedoch warnt (Stand 2.6.) auf seinen Seiten bei der „Messung von asymptomatischen Personen“ überraschenderweise vor den Falsch-Negativen (das sind die, die infiziert sind, aber diese Infektion bei ihnen nicht erkannt wurde), das ist nach dem Lesen von Ottes Beitrag nicht mehr verständlich. Gerade die Falsch-Positiven, die bei der geringen Durchseuchung nun ein Problem darstellen, werden für die Bevölkerung unzureichend thematisiert. Warum eigentlich?

Eine wohlmeinende Empfehlung für die Bundesregierung

Ottes Anliegen ist es, der Bevölkerung ihre panische Angst zu nehmen. Er ist Ingenieur, er begibt sich daher zumindest indirekt auf ein für ihn fachfremdes Feld, auch er mag in dem einen oder anderen Aspekt irren. Das ist der Lauf der wissenschaftlichen Erkenntnis. Anscheinend hat aber bislang noch niemand der Betroffenen mit einer substanziellen wissenschaftlichen Kritik geantwortet, auch das wäre Wissenschaft. Eine These ist so lange gut, bis sie widerlegt ist. Es sieht aber überhaupt nicht danach aus, dass dies für Ottes Arbeit erfolgt.

Es zeigt sich, dass Ottes öffentliche Prognosen vom 7. April bis dato auf frappierende Weise korrekt sind, und dies völlig diametral zur öffentlichen Meinung. Bei aller Vorsicht lässt sich daraus eine wohlmeinende Empfehlung für die Bundesregierung ableiten:

Sie sollte sich bei der Begründung ihrer Maßnahmen zum Umgang mit der Corona-Krise nicht ernsthaft weiter auf das Robert-Koch-Institut und die einschlägigen Berater berufen. Die Zahl der Versäumnisse, Fehler und wissenschaftlichen Peinlichkeiten ist einfach zu groß. Sie sind gut belegt und dokumentiert. Auch hinsichtlich möglicher Schadensersatz-Forderungen dürfte der Kronzeuge RKI eher ein Risiko als eine Absicherung darstellen.

Das Auftauchen einer großen Zahl von Infizierten beim Fleischproduzenten Tönnies wird in den Medien als Hiobsbotschaft überbracht. Wer die Lehren aus Ottes Beiträgen zieht, kommt zu dem Schluss, dass die gemeldeten Infektionsfälle in Deutschland vielleicht nie wieder aufhören werden, dass aber für die Gesamtbevölkerung trotzdem keine Gefahr mehr besteht, da man in Hotspots die Infektionsketten gut nachverfolgen kann und die Infektionssterblichkeit von Covid-19 für die Gesamtbevölkerung viel, viel geringer ist, als von den Behörden (zu Beginn) angenommen oder medial verbreitet.

Dies sind nun ziemlich gute Nachrichten für die Allgemeinheit, wir sollten uns darüber freuen. Wenn Ottes Einschätzung stimmt, – und sie stimmt in der Grundaussage ja durchaus mit anderen kritischen Stimmen überein – (siehe hier Achgut.com „Bericht zur Coronalage „Die Infektionswelle ist vorbei“ und Corona-Aufarbeitung: „Warum alle falsch lagen„), dann wäre die Epidemie in Deutschland tatsächlich vorbei, trotz aller Hotspots.

Doch solange die RT-PCR-Tests durchgeführt und sogar medial überhöht werden, wird ohne Not in den Köpfen der Bevölkerung eine Epidemie kreiert. Der Grund, warum Medien das immer noch mitmachen, erschließt sich mir nicht. Mit aufopferungsvoller Fürsorge für die Covid-19 Gefährdeten ist das nur noch schwerlich zu begründen. Ob die Leitmedien aus eigener Kraft noch umsteuern können oder ob die Judikative die Reißleine in Deutschland wird ziehen müssen, ist schwer vorherzusagen.

Und damit wären wir wieder am Anfang dieses Beitrages: Es gibt in Deutschland noch das großartige Know-how und die exzellente Wissenschaft. Man muss sie nur nutzen.

Fazit: Von dem Ulmer KI-Experten Ralf Otte wurde mit ingenieurmäßiger Präzision die „Akte Corona“ zerlegt. Man darf gespannt sein, wie lange es der offiziellen Linie gelingt, diese und andere Beiträge einfach zu ignorieren oder ob es endlich zu den dringend notwendigen Streitgesprächen unter den Experten verschiedener Fachdisziplinen kommen wird.

 

Quelle und Lektüre zum Thema:

Prof. Dr. Ralf Otte hat seine Kritik in einem ausführlichen Essay für die Weinheimer Nachrichten ausgearbeitet, es steht für 99 Cent hinter der Bezahlschranke, ist aber Gold wert.

Der Beitrag erschien zuerst bei ACHGUT hier




Bericht zur Coronalage 23.06.2020: Rinderwahn

Jüngstes Beispiel: die zahlreichen positiven Tests in den Tönnies Schlachthöfen und die damit verbundenen Lockdowndrohungen (Karl Lauterbach warnt natürlich besonders).

Das Beste ist, dieser neuen Panikmache mit Logik zu begegnen. So fällt auf, dass positive Testergebnisse immer wieder bei Mitarbeitern von Schlachthöfen gemessen werden. Zufall? Bringen wir Erkenntnisse zusammen, die eine vernünftige Erklärung dafür bieten könnten. Tun wir also wieder das, was die Verantwortlichen immer und immer wieder unterlassen.

1. Christian Drosten gab im Stern vom 21. März ein Interview. Abgesehen davon, dass dieses Interview ein Paradebeispiel darstellt für Selbstüberschätzung, Moralismus und Panikmache, ist besonders seine Antwort auf die Frage interessant, ob China seine Massentierhaltung überdenken soll:

„Bei einem der vier Erkältungs-Corona-Viren, die wir bislang beim Menschen kannten, kann man fast mit Sicherheit sagen, dass es vor etwa 150 Jahren aus dem Rind zum Menschen kam. Als MERS ausbrach (Anm. d. Red.: eine durch Coronaviren verursachte schwere Atemwegserkrankung, die 2012 wahrscheinlich auf der Arabischen Halbinsel ihren Ursprung hatte), kam das Virus von Kamelen. Die wiederum tragen auch ein Rinder-Corona-Virus in sich, wie wir bei Untersuchungen festgestellt haben. Und zudem einen engen Vorfahren eines menschlichen Coronavirus.“

Halten wir daher fest: Rinder tragen viele Coronaviren in sich.

2. Sucht man nach Rindercorona, zeigt sich schnell, dass Durchfallerkrankungen bei Kälbern ein sehr häufiges Problem sind. Einer der Haupterreger dafür: ein für Menschen harmloseres Coronavirus. Deswegen werden die Kühe massenweise gegen dieses Virus geimpft

Halten wir fest: Für Menschen harmlose Coronaviren sind ein großes Problem für die Viehhaltung, und dagegen werden Massenimpfungen durchgeführt.

3. Im Achgut.com-Beitrag von Prof. Beda Stadler („Warum alle falsch lagen“) wird anschaulich erklärt, warum die angewandten Corona-Nachweistests auf alle möglichen Anteile des Coronavirus reagieren. Hier das entsprechende Zitat:

„Macht man also bei einem immunen Menschen einen PCR-Corona-Test, wird ja kein Virus detektiert, sondern nur ein kleines Stück des viralen Genoms. Der Test wird so lange positiv sein, bis keine Trümmer des Virus mehr vorhanden sind. Richtig, auch wenn längst keine infektiösen Viren mehr vorhanden sind, kann ein Corona-Test also noch positiv ausfallen, weil durch die PCR-Methode selbst ein kleines Stück des viralen Genmaterials im Test genügend vervielfältigt wird. So geschehen, als aus Korea die Meldung rund um den Globus ging und von der WHO übernommen wurde, dass mehr als zweihundert Koreaner, die Covid-19 durchgemacht hatten, wieder angesteckt worden seien, dass also wahrscheinlich keine Immunität gegen dieses Virus entstehe. Die Erklärung des wahren Sachverhalts und die Entschuldigung kamen erst etwas später, als man feststellte, dass die immunen Koreaner alle kerngesund seien und nur einen kurzen Zweikampf mit dem Virus hatten. Der Haken war eben, dass die Virustrümmer mit dem allzu sensitiven Test noch erfasst wurden und das Signal „positiv“ auslösten. Wahrscheinlich beruhen bei uns eine Großzahl der täglich rapportierten Ansteckungen bloß auf solchen Virustrümmern.“

Halten wir fest: Der aktuelle Coronatest reagiert positiv auf alle möglichen Corona-Virenbestandteile und -trümmer.

4. Der eine oder andere Leser erinnert sich vielleicht an meinen Achgut.com-Beitrag bezüglich der falsch positiven Testungen. Ich bezog mich auf diesen INSTAND Ringversuch. Aus dem Artikel möchte ich diesen Abschnitt zitieren:

„Die Veröffentlichung (des INSTAND Ringversuchs) stammt vom 2.5.2020. Darin lesen wir tabellarisch auf den Seiten 12–13 (Sie müssen dazu die hohe Prozentzahl der negativ getesteten Proben (richtig-negativ) von 100 Prozent abziehen) 

  • Probe 340062: falsch-positiv Raten von 1,4 Prozent bei Vorliegen keines Virus – S. 12
  • Probe 340060 HCoV OC43: falsch-positiv Raten von 2,2 Prozent (harmloser Erkältung-Corona-Virus) – S. 12
  • Probe 340065 HCoV 229E: falsch-positiv Raten von 7,6 Prozent bei Vorliegen (harmloser Erkältung-Corona-Virus) – S. 13

Das bedeutet, 1,4 Prozent der SARS-CoV-2 Tests schlagen positiv an, obwohl die Probe gar kein Virus enthält. 9,8 Prozent bei Vorliegen eines von zwei anderen, harmloseren Coronavirus-Varianten (wie viele andere, eher harmlose Coronaviren es gibt, die ebenfalls falsch positiv anschlagen könnten, ist mir nicht bekannt).“

Dass bei einer sehr niedrigen Infektionsrate (Prävalenz) die falsch positiven Fälle ein Infektionsgeschehen vortäuschen, welches gar nicht existiert, haben wir ja inzwischen hinreichend geklärt.

Doch wie ist es bezüglich der positiven Testergebnisse aufgrund anderer, für Menschen harmloserer Coronaviren? Hier wäre die entscheidende Information, wie viele der Getesteten mit solchen anderen Coronaviren in Kontakt kamen. Wären es fast 100 Prozent, kommen alle Prozentzahlen, der dadurch ausgelösten positiven (positiv aufgrund anderer Coronaviren als SARS-CoV-2) Testergebnisse voll zum Tragen. Im Fleisch von Rindern (wie es sich bei Schweinen verhält, ist mir nicht bekannt), dürfte es von Corona-Virustrümmern geradezu wimmeln, wegen durchgemachter Corona-Infektionen und Massencorona-Impfungen. Was passiert mit diesen zahllosen Virentrümmern beim Schlachten und Zerlegen des Fleisches?

In einem Tagesschaubericht lesen wir„Bei den Testungen zeigte sich, dass die Zahl der positiven Befunde außerhalb der Zerlegung deutlich niedriger sind als in diesem Betriebsteil“.

Halten wir abschließend fest:

  • Der aktuelle Coronatest reagiert in einem erheblichen Maße positiv auch auf andere, für Menschen harmlose Coronaviren.
  • Das Rindfleisch, welches in Schlachthöfen zerlegt wird, müsste massenweise für Menschen harmlose andere Corona-Virenbestandteile enthalten.
  • Positive Tests von Schlachthofmitarbeitern fallen besonders in den Zerlegeabteilungen auf.

Daraus leiten wir nun folgende These ab: Freigesetzte Corona-Virentrümmer von für Menschen harmlosen Corona-Viren, aus Rinder-Infektionen und Rinder-Impfungen stammend, werden beim Schlachten und Zerlegen von Rindern massenweise freigesetzt und gelangen über die Atemwege auf die Nasenschleimhäute der Mitarbeiter der Schlachthöfe. Dies ist der Grund dafür, dass so viele Tests bei Schlachthof-Mitarbeitern positiv anschlagen.

Welche Fragen müssten geklärt werden, um diese These zu überprüfen? Zunächst sollten wir wissen, wie viele der positiv Getesteten wirklich Symptome von Covid-19 zeigen. Im oben verlinktem Tagesschau-Bericht lesen wir (abgesehen davon, dass wieder und wieder positiv Getestete mit Infizierten verwechselt werden):

„Die Zahl der nachgewiesenen Corona-Infizierten in der Fabrik in Rheda-Wiedenbrück stieg indes auf 1331. Dies teilte der Kreis Gütersloh mit. Die Reihentestungen auf dem Gelände der Firma seien am Samstag abgeschlossen worden. Insgesamt 6139 Tests seien gemacht worden. 5899 Befunde lägen bereits vor. Bei 4568 Beschäftigten wurde das Virus demnach nicht nachgewiesen. „Bei den Testungen zeigte sich, dass die Zahl der positiven Befunde außerhalb der Zerlegung deutlich niedriger sind als in diesem Betriebsteil“, hieß es weiter. In den vier Krankenhäusern im Landkreis werden derzeit 21 Covid-19-Patienten stationär behandelt. Davon liegen sechs Personen auf der Intensivstation, zwei von ihnen müssen beatmet werden. Fünf der sechs sind nach Angaben des Kreises Tönnies-Beschäftigte.“

In diesem Beitrag zu positiven Testungen, in einem anderen Schlachtunternehmen (Vion), finden wir folgende Aussage:

„Das Unternehmen sprach von einer reinen Vorsichtsmaßnahme zum Schutz der Mitarbeiter. Am Mittwoch der vergangenen Woche waren zunächst zwei Mitarbeiter an einer Covid-19-Infektion erkrankt. Bei den daraufhin veranlassten Tests der örtlichen Gesundheitsbehörden wurde bis Sonntagnachmittag bei mehr als 50 der insgesamt 260 Mitarbeiter des Schlachthofs ein positives Ergebnis festgestellt. Bei 90 Prozent der positiv getesteten Personen sind bisher keine Symptome aufgetreten.“

Wie sind diese Zahlen zu interpretieren?

Option 1:

Wenn den positiven Testungen tatsächlich eine Infektion mit SARS-CoV-2 Viren zugrunde liegt, hätten wir einen guten Hinweis darauf, wie viele dann auch tatsächlich Symptome wie Halsweh entwickeln, bei Vion-Mitarbeitern nämlich 10 Prozent. Wenn von 1.331 der Tönnies-Mitarbeitern positiv Getesteten fünf intensivmedizinisch behandelt werden müssen (Alter? Vorerkrankung?), dann verläuft bei ca. 0,4 Prozent der Infizierten die Erkrankung lebensgefährlich. Die Letalität ist bisher null. Das ist nicht harmlos, aber zu keinem Zeitpunkt eine gesellschaftliche Bedrohung. Aufgrund dieser Zahlen von einem Lockdown zu sprechen, ist verantwortungslos.

Option 2:

Den positiven Tests liegen andere für Menschen harmlose Rindercorona-Virentrümmer zugrunde. Symptome wie Halsschmerzen (man denke an die gekühlten Räume in den Schlachtanlagen) haben nichts mit Covid-19 zu tun. Die intensivmedizinsch Behandelten haben eine andere infektiöse Atemwegserkrankung oder entsprechende Vorerkrankungen, die eine intensivmedizinische Behandlung notwendig machen.

Wie könnte man hier Licht ins Dunkel bringen? Am besten, wieder durch einen Ringversuch mit folgenden Abstrichen:

  • Abstriche von Rindfleisch, erhoben in einer Zerlegeabteilung der betroffenen Schlachthöfe
  • Abstriche, getunkt in den Rindercorona-Impfstoff

Schlagen dann die Tests zu einem erheblichen Teil positiv an, hätten wir die Masseninfektionen in den Schlachthöfen als Fehlalarm erkannt. Doch das passiert nicht. Lieber bringt man wieder einen Lockdown ohne Sinn und Verstand ins Spiel und hält die Angst am Laufen.

Wo bleiben die Hochschulproteste gegen den Coronawahn?

Von all den guten Coronavideos finde ich derzeit dieses hier besonders aussagekräftig. Es fasst den aktuellen Wahnsinn in gut verständliche Worte. Es ist leider auf Englisch. Gleich mehr dazu.

Es stammt von einem Tanzlehrer, Willem Engel aus den Niederlanden, der früher als Wissenschaftler in der biopharmazeutischen Chemie gearbeitet hat (Genaueres konnte ich dazu nicht finden). Er hat sich in den letzten Monaten intensiv mit den Daten der Coronaepidemie befasst, und das ganz offenbar mit sehr klarem Verstand. Er bezieht sich beispielsweise auf die gleichen Erkenntnisse, wie sie der Immunologe Beda Stadler, hier und hier auf Achgut.com vor kurzem ebenfalls erklärt hat.

Professor Stadler hat sich dabei zu recht darüber beschwert, dass profunde Kritiker des Corona Missmanagements öffentlich in einen Topf gesteckt werden mit Esoterikern und Verschwörungsspinnern. In diesem Topf fühle ich mich ebenfalls äußerst unwohl. Aber in welchem Topf wollen wir denn sein und mit wem? Klar, im Topf der Vernunft und der etablierten Wissenschaft. Doch damit dieser Topf öffentlich dieses Etikett erhält, langt es nicht, dass sich darin nur pensionierte (emeritierte) Wissenschaftler, selbstständige, praktische Ärzte und Wissenschaftler, die in der Privatwirtschaft tätig sind, tummeln.

Ein solcher Topf bekommt derzeit keine politisch/mediale Durchschlagskraft. Denn die einflussreichsten Wissenschaftler sind die, die in den Hochschulen aktiv in Amt und Würden tätig sind und damit in den Gremien sitzen, die die Politik beraten. Solange diese en gros schweigen, erlaubt sich die Politik und die öffentliche Hofberichterstattung weiter mit aller Macht, an der Legende der nützlichen Corona-Schutzmaßnahmen festzuhalten und dabei alle Gesetze der Logik und des Verstands zu brechen.

Dabei ist es inzwischen offiziell: Unsere Regierung hat zu keiner Zeit ein professionelles Risikomanagement betrieben. Der größte Fehler war, sich lediglich auf das Robert-Koch-Institut (RKI) und Professor Christian Drosten zu verlassen, beide vorbelastet durch groteske Fehleinschätzungen während der letzten als Bedrohung deklarierten Pandemie, der Schweinegrippe im Winter 2010. Zu keinem Zeitpunkt wurden führende Wissenschaftler interdisziplinär zusammengeführt, um daraus ein vernünftiges und verhältnisbewahrendes Vorgehen zu entwickeln. Es war ein inkompetenter Blindflug. Jedes kleine Unternehmen muss regelmäßige, höchst nervende ISO-Zertifizierungen über sich ergehen lassen, doch unsere Regierung entscheidet mal eben so aus der Hüfte aufgrund von Hörensagen. Jeder Wissenschaftler, den ich kenne, regt sich darüber auf – im Privaten.

Machen wir doch einmal alle zusammen einen Test. Kennen Sie einen Beitrag in einem für die Öffentlichkeit bestimmten Medium, also außerhalb rein wissenschaftlicher Publikationen, in dem ein an einer Hochschule angestellter Wissenschaftler oder angestellte Wissenschaftlerin, oder noch besser mehrere zusammen, öffentlich an den Corona-Schutzmaßnahmen und ihren tatsächlichen Konsequenzen Kritik üben, gerne auch vornehm zurückhaltend, aber mit klaren Worten? Dann bitte teilen Sie diese in den Kommentaren mit.

Ich kenne im Ausland vor allem Professor John Ioannidis und in Deutschland eigentlich nur Professor Streeck, Professor Karina Reiß, die Pathologenprofessoren Püschel und Schirmacher, den Psychologen Professor Kuhbandner und in Wien Professor Söhnnichsen. Als selbstständiger Arzt habe ich natürlich leicht reden. Niemand droht mir direkt oder indirekt mit Verlust der Forschungsgelder und damit mit dem Ausschluss aus der Forschungsgemeinschaft. Auch habe ich keine Verantwortung für ein ganzes Hochschulinstitut mit vielen Mitarbeitern. Doch angesichts des Schadens für unsere gesamte Gesellschaft sollte die Wissenschaft nicht nur im privaten Kreis ihr Entsetzen dazu äußern, sondern der Öffentlichkeit ihre Existenzberechtigung auch in einer solchen Krise demonstrieren. Sollten wir nach dem ganzen Wahnsinn Instrumente entwickeln, mit deren Hilfe auch aktive Wissenschaftler ohne Bedrohung der eigenen Karriere die Öffentlichkeit auf gesellschaftliche Fehlentwicklungen aus ihren Fachgebiet heraus aufmerksam machen können, wäre dies zumindest eine positive Folge des aktuellen Schlamassels.

Kommen wir nun zu unserem gut informierten, zahleninterpretationsfesten und klugen Tanzlehrer, der auch diese Website betreibt. Ich fasse für Sie die Hauptaussagen seines (oben bereits erwähnten) Videos zusammen:

  • Die Tests springen auch positiv an, wegen falsch positivem Fehlalarm und wegen Trümmern von bereits von unserem Immunsystem zerstörten Viren, ob es andere Coronaviren waren oder das aktuelle SARS-CoV-2. Die aktuellen positiven Ergebnisse beruhen nur noch auf diesen Fehlern.
  • Testungen, so wie sie gerade durchgeführt werden, können lediglich Infektionsgeschehen innerhalb einer Gesellschaft deuten, aber keinen individuellen Krankheitsfall beurteilen.
  • Die steigende Zahl der Tests erzeugt künstlich ein Infektionswachstum und einen künstlichen Reproduktionswert R, die die Wirklichkeit komplett überzeichnen (Dr. Wolfgang Wodarg hat recht, das Problem ist der Test. Wenn testen, dann nur in Stichproben und die Daten daraus hochvorsichtig bezüglich des Infektionsgeschehen interpretieren).
  • Das Problem dieser Massentestungen auf nur eine bestimmte Erkrankung ist, dass alle anderen Möglichkeiten, warum Menschen erkranken oder sterben, ausgeblendet werden. Wir bekommen einen Schlüssellochblick, anstatt das Ganze zu sehen. Sie machen eine Erkrankung künstlich groß und andere künstlich klein. Viele Covidtote könnten bespielweise in Wirklichkeit an Influenza gestorben sein?
  • Aktuelle Antikörper-Tests sind dazu gemacht, einen Impferfolg zu messen, aber nicht, ob ein Mensch eine Immunität gegen eine Infektion besitzt. Unser Immunsystem benutzt auch andere Abwehrstrategien als nur die Antikörper.
  • Alle Messungen stoppen, einen Schritt zurückgehen und alles erst einmal neu überdenken
  • Impfungen gegen Viruserkrankungen der Atemwege sind problematisch, da die Viren zu jeder neuen Saison sich durch Mutation verändern. Außerdem sind Grippeimpfungen unnötig für die Jungen und Gesunden, aber sie wirken schlechter bei den Risikogruppen, eben weil deren Immunsystem nicht mehr voll leistungsfähig ist (s.a. Beda Stadler). Den Nutzen und Schaden solcher Impfungen zu beurteilen, benötigt Jahre. Es ist völlig unseriös, sie als Lösung der derzeitigen Problemstellungen zu betrachten.
  • Die Modellrechnungen gehen von falschen Grundannahmen aus (shit-in-shit-out Prinzip). Zum Beispiel, dass es eine 100 Prozent fehlende Immunität auf das Coronavirus gibt. Dies ist ganz offensichtlich falsch, wie es Beda Stadler sehr eindrücklich erklärt hat.
  • Somit erzeugen die aktuellen Testungen und Modellrechnungen künstlich eine Pandemie, die in Wirklichkeit relativ gut beherrschbar ist und einen kurzen definierten Zeitverlauf besitzt. In Europa und inzwischen in den USA ist die Infektion so gut wie vorbei. Brasilien wird zeitversetzt folgen.
  • Leider veröffentlichen anerkannte Journals solche Modellrechnungen, die völlig spekulativ sind und später von der Wirklichkeit widerlegt werden, um die Regierungspositionen fälschlicherweise zu legitimieren.
  • Insgesamt betrachtet, arbeiten wir mit Daten, deren falsche Interpretation, ein Problem erzeugen, welches es ohne diese Datenerhebung gar nicht geben würde.
  • Die falsche Interpretation und die Epidemieschimäre führen zu Behandlungsprotokollen, die bei einem positiven Test die richtige Therapie für kranke Menschen erschwert oder gar verhindert.
  • Die Versuche, die aktuelle Winterinfektion zu kontrollieren, richten viel mehr Schaden an als das Virus selbst.

Die Forderungen, die schon längst alle vernünftigen Wissenschaftler öffentlich stellen müssten, lauten:

  • Sofort alle Massentestungen stoppen
  • Stoppen aller spekulativen Modellrechnungen
  • Gründliches Neuüberdenken der Situation
  • Lasst die Ärzte entscheiden, wie man einen Erkrankten behandelt, und zwar anhand seiner Symptome und nicht aufgrund eines individuell völlig nutzlosen Tests.

Schenkt den Menschen endlich reinen Wein ein. Die Infektion ist vorüber, die Angst davor maßlos übertrieben. Wir müssen wieder unser normales Leben führen können. Nur so entwickeln wir Hoffnung, den angerichteten gigantischen Scherbenhaufen wieder aufräumen zu können.

Der Beitrag erschien zuerst bei ACHGUT hier




Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.

So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.

So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.

Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.

Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.

 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.

Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.

Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.

Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.

Nichts anderes.

Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.

Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.

Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.

Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.

In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.

Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.

Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.

Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].

Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.

In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:

“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab

Und etwas später ebenda:

“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 

In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:

“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“

Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.

Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.

Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.

In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 

und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.

 

[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.

 




Wenn sich Lobbyisten als Klimaexperten ausgeben

 Gemeint ist die Lobbyistin Simone Peter.

Wie schon im Frühjahr als eine normale Sturmflut die deutschen Küsten traf und sie deshalb in Panik verfiel aber gleichzeitig über viel Windstrom frohlockte, ist es jetzt das Thema Sibirien. Das ist gerade eine beliebte Sau, die durchs Klima-Dorf getrieben wird. Nochmal zur Erinnerung. Sibirien ist fast 40 mal so groß wie Deutschland, es gibt nicht die Standardtemperatur für Sibirien, denn die Ausdehnung reicht von Kasachstan bis zum Nordpolarmeer und vom Ural bis an den Pazifik. Simone Peter beruft sich auf einen Artikel des Guardian. Und der macht nettes Cherry Picking und verwechselt munter Wetter und Klima:

„Russian towns in the Arctic circle have recorded extraordinary temperatures, with Nizhnyaya Pesha hitting 30C on 9 June and Khatanga, which usually has daytime temperatures of around 0C at this time of year, hitting 25C on 22 May. The previous record was 12C.“

Sie unterliegt dabei demselben Missverständnis wie unsere Lieblingsbiologin Melanie Bergmann aus Bremen. In dem riesigen Land können die Temperaturen im Laufe des Jahres erheblich schwanken, von minus 40 Grad bis plus 40 Grad kann alles dabei sein. In keinem Fall beträgt die durchschnittliche Temperatur in dem riesigen Land im Sommer 0 Grad. Sie schwankt. Es wird sich aber ein Ereignis herausgepickt, im Falle von Nizhnyaya Pesha sanken die Temperaturen am nächsten Tag von 30 auf 10 Grad. Das war aber keine Erwähnung mehr wert. Wieso auch, das ist Wetter und nicht Klima.

Das zweite Beispiel Khatanga profitiert momentan von einer südlichen Strömung. Warme Luft kühlt auf dem Weg über das Land kaum ab und daher ist es im Süden Sibiriens gerade warm. Man nennt das ebenfalls Wetter, das gleiche Wetter sorgt nämlich im Norden Sibiriens für kühles Wetter, weil der Wind von Nord und über die See kommt. Das kann in sehr kurzer Zeit schon wieder komplett anders aussehen.

Beide sibirischen Städte haben, da sie auf der Nordhalbkugel liegen, gerade Sommer. Die Sonne scheint sehr lang und hat so die Möglichkeit die Luft zu erwärmen. Strömungen sorgen darüber hinaus für unterschiedliches Wetter. Man erkennt es auf der Karte von Ventusky sehr gut an der grünen Farbe. Dort ist es aktuell kühl. Für Lobbyisten vom Schlage Simone Peter ist das wahrscheinlich ein unvorstellbares Ereignis. Sie mischen munter Wetter und Klima, weil es gerade gut passt. Würde irgendjemand bei einem neuen Tiefstwert im Winter in Sibirien eine neue Eiszeit ausrufen? Nein, denn das wäre in etwa auf dem gleichen Niveau wie Simone Peter.

Der Beitrag erschien zuerst bei Die kalte Sonne hier




Energieträger Wasserstoff: Jetzt wird der Wasserstoff grün angestrichen (Teil 1)

Nach Scheitern der Energiewende und der Elektromobilität lautet nun die neue Parole: ‚Wasserstoffrepublik‘. Nüchtern betrachtet ist das Element wenig aussichtsreich als Energieträger der Zukunft.

Nur wenige kurze Sätze in den 21 Seiten des Papiers »Zukunfts-Strategiedialog Energieforschung« sind dem Thema Wasserstoff gewidmet: »Auf absehbare Zeit geringe energiewirtschaftliche Bedeutung«, steht da. Und: »Forschung und Entwicklung nur verfolgenswert, wenn Wasserstoff als Energiespeicherungs-Medium eingesetzt wird.«  Das ist allerdings schon eine ganze Weile her, die Zeilen wurden bereits im Jahre 1995 formuliert.

Möglicherweise könne Wasserstoff irgendwann einmal seinen Part in einem umweltfreundlichen Energiesystem übernehmen. Vor »uneinlösbaren kurzfristigen Erwartungen« jedoch sei zu warnen. Das verkündete in holprigen Sätzen eine Umweltministerin bei der 11. Weltwasserstoffkonferenz in Stuttgart, der »Hydrogen ‘96«, über die auch der Spiegel berichtete. Ebenfalls ein paar Jahre her ist das, es war am 4. November 1996. Und die Ministerin, die das sagte – das war seinerzeit Angela Merkel. Sie hatte die Aufgabe, den kühnen Wasserstoffplänen der versammelten internationalen Fachleute und deren Erwartungen nach staatlichen Fördermillionen eine Absage zu erteilen. Denn kurz zuvor strich das Bundesforschungsministerium das Budget für die Wasserstoffforschung von bereits bescheidenen 15 Millionen auf fünf Millionen Mark zusammen.Neben vielen anderen hatte sich auch der frühere Bayerische Ministerpräsident Franz Josef Strauß zu seinen Lebzeiten für eine Wasserstoffwirtschaft stark gemacht – das müsste heute eigentlich ausreichen, sich dagegen auszusprechen.

Als »riesige Blendgranate« bezeichnete einst in einem erinnerungswürdigen Interview mit dem Deutschlandfunk der Energieexperte Dr. Ulf Bossel vom Europäischen Brennstoffzellenforum eine Wasserstoffwirtschaft. Angesichts der schlechten Energiebilanz werde »auch niemand so dumm sein, um hier in eine Wasserstoffinfrastruktur zu investieren«, meinte er, eigentlich ein ‚Wasserstoff-Fan‘. Wasserstoff sei ein denkbar ungeeigneter Energieträger, da bei seiner Herstellung viel Energie verbraucht und bei Transport und Lagerung viel Energie verloren gehe. 

Um Wasserstoff herzustellen, benötige man erhebliche Mengen an Strom. Er verwies auch darauf, dass viel Wasser bei der Herstellung durch die Elektrolyse gebraucht werde: »Um ein Kilo Wasserstoff herzustellen, das entspricht etwa drei Liter Benzin, brauche ich neun Kilogramm Wasser. Und das habe ich garantiert in der sauberen Form nicht dort, wo ich viel Sonnenenergie habe.«

»Wenn ich aus Wasser Wasserstoff mache durch Elektrolyse, verliere ich ungefähr ein Drittel der Energie, ein Drittel des Stroms ist weg. Dann muss ich den Wasserstoff ja transportfähig machen. Ich muss ihn entweder komprimieren, da verliere ich etwa 10 bis 15 Prozent der Energie, oder ich muss ihn verflüssigen, da verliere ich etwa 40 Prozent der Energie.«

»Und dann habe ich das Transportproblem«, listet er die Kehrseiten weiter auf. »Ich muss den Wasserstoff also, wenn ich ihn in Patagonien mache, muss ich ihn per Schiff nach Hamburg bringen. Das kostet wiederum Energie, ungefähr ein Drittel des Wasserstoffs, den ich im Schiff habe, verliere ich bei einer Fahrt von Patagonien nach Hamburg.«

»So viel?« Wirft erkennbar geschockt der Moderator ein.

»Ich kann nur ein Drittel der Ladung wirklich in Hamburg anlanden und nutzen«, rechnet Bossel ungerührt fort. Reiner Wasserstoff allein nutze nicht viel: »Ich muss ihn ja umsetzen, entweder in einer Brennstoffzelle mit 50 Prozent Wirkungsgrad, wenn es gut geht, oder in einem Wasserstoffmotor mit 40 Prozent, wenn es gut geht. Das heißt, da habe ich noch mal Verluste, bis ich nachher endlich wieder zu dem komme, was ich ursprünglich hatte, nämlich dem Strom. Das heißt, von dem Strom, wenn ich unter einem Atomkraftwerk zum Beispiel Wasserstoff bei uns herstellen wollte, dann kann ich über die Leitung etwa vier mal mehr Energie transportieren, als ich über den Wasserstoff transportieren kann. Ich brauche also vier Kernkraftwerke, um den gleichen Kundennutzen zu haben.«

Kein Wunder, dass Ulf Bossel zu dem Schluss kommt: »Wasserstoff löst keine Energieprobleme«. ( Leibniz-Institut, 2010). 

Aber auch das Interview ist schon zwölf Jahre alt. Unter Bundeswirtschaftsminister Altmaier und Bundesforschungsministerin Anja Karliczek haben sich die technischen Erkenntnisse gewandelt.

Die Energiewende scheitert und die Elektromobilität scheitert; da könnten möglicherweise irgendwann die Bürger wütend werden, wenn sie erkennen, dass für dieses Scheitern gut funktionsfähige Kernkraftwerke abgerissen und die Grundlagen eines Industrielandes in Schutt und Asche gelegt werden. Also müssen neue Parolen dringend her: die von der ‚Wasserstoffrepublik‘, in die sich Deutschland wandeln soll. In der bekommen erst einmal die armen Moleküle des Wasserstoffs genau wie die Elektronen des Stroms erst einmal eine Farbe und werden grün angestrichen.

Dazu feuern die Medien Jubelberichte über »Begeisterung nach Testphase mit Wasserstoff-angetriebenen Zügen« ab. Dieselloks würden damit verdrängt, wie es in schwärmerischen Berichten heißt, Lastwagen könnten damit angefeuert werden und Pkw sowieso.

‚Grüner Wasserstoff‘, durch Sonne und Wind erzeugt, sei der ‚Energieträger der Zukunft‘, so Karliczek. »Wir brauchen ein Cape Canaveral des Wasserstoffs in Deutschland«. Die Hotelfachfrau aus dem Münsterländischen stammt aus dem merkelschen Polit-Bollwerk, sitzt auf dem Chefsessel des Bundesforschungsministeriums und will bis zum Jahr 2025 eine Innovationsoffensive »Wasserstoffrepublik Deutschland« umsetzen. Milliarden sollen für einen guten Zweck fließen, zur Förderung der Wasserstofftechnologie: »Wir wollen Weltmeister auf dem Gebiet des Grünen Wasserstoffs werden. Wir wollen in Deutschland die Technologien erforschen, entwickeln und herstellen, die weltweit Standards setzen und das Potential haben für neue Exportschlager `Made in Germany`.«

Statt Cape Canaveral könnte Lakehurst der passendere Vergleich sein. 1937 verschwand der deutsche Super-Zeppelin »Hindenburg« nach einer Atlantik-Überquerung in einer gewaltigen Explosion beim Landeplatz in Lakehurst vom Himmel. Er war mit dem Wasserstoffgas gefüllt, das zwar leicht ist, jedoch extrem brennt. Ein schönes Sinnbild für den Knallgaseffekt. Helium, das wussten die deutschen Ingenieure zwar, ist unbrennbar, also besser, aber die USA rückten nichts von diesem raren Edelgas heraus.Lakehurst zeigte: Der Umgang mit Wasserstoff ist schwierig, ihn beherrschen die Fachleute trotz gelegentlich explodierender Tankstellen prinzipiell heute durchaus. Allerdings ist die aufwendige Handhabung entsprechend teuer.

Nichtsdestotrotz herrscht seit einiger Zeit wieder Goldgräberstimmung in der Branche. »Kaum ein Thema elektrisiert große Teile der deutschen Wirtschaft derzeit mehr als Wasserstoff«, notierte das Handelsblatt anläßlich einer Konferenz »Wasserstoff und Energiewende«. Die Gäste kommen angerannt, die Regierung »hat die Aufmerksamkeit von Stahl- und Chemiebranche, Energiewirtschaft, Autokonzernen, Anlagenbauern und Netzbetreibern«.

Kein Wunder, es werden horrende Summen verteilt. Da kann man schon mal wie Niedersachsens Ministerpräsident Stephan Weil rufen: »Deutschland braucht mehr Tempo bei der Energiewende – und muss auf Wasserstoff setzen 

Als Industrievertreter muss man dann auch peinliche Sprüche aus dem Munde des Wirtschaftsministers an sich abperlen lassen: »Gas ist sexy

Klar war den Experten stets, dass eine mächtige Energiequelle zur Erzeugung von Wasserstoff vonnöten sei. Die einzige Quelle, die preisgünstig gigantische Mengen an Strom erzeugen kann, ist jedoch die Kernkraft. Idee der frühen Wasserstoffbefürworter: Hochtemperaturreaktoren sollten preiswert Wasserstoff als Energieträger erzeugen.

Einer der Pioniere einer deutschen Wasserstofftechnologie nach dem Zweiten Weltkrieg war übrigens Ludwig Bölkow (1912-2003). Der hatte den »Deutschen Wasserstoffverband« mit begründet. Da war er allerdings schon »pensioniert« und zum »Ökopazifisten« gewandelt. Er hatte seine Ader zu den »Grenzen des Wachstums« und zur Rettung der Menschheit entdeckte. Zuvor hatte er mit der Entwicklung von tüchtigem Luftfahrtkriegsgerät kräftig, nun ja, eher zum Gegenteil beigetragen. Mit leistungsschwachem Elektro- oder Brennstoffzellenantrieb hätte Bölkow früher jedoch nie ein leistungsfähiges Kampfflugzeug in die Luft gebracht.Die auf seine Stiftung zurückgehende »Ludwig-Bölkow-Systemtechnik GmbH« zeichnet heute für »grüne« Energien und Wasserstoff mit verantwortlich und kann sich auch über die neuen Milliarden freuen.

»Weil es eine Riesen-Wasserstofflobby gibt«, antwortete seinerzeit Experte Bossel auf die Frage, warum die Politik trotz der desaströsen Energiebilanz dennoch am Wasserstoff festhalte, »weil sie bei ihren Anhörungen nicht die kritischen Stimmen hört, sondern lediglich die, die an Wasserstoffprogrammen beteiligt sind. Und für die ist das natürlich dann ein Selbstbedienungsladen. Sie befürworten die Wasserstoffprogramme, weil sie dann entsprechend partizipieren.« 

Jetzt riecht es wieder nach Desertec, jenem kolossalen Schwindel, der aus Nordafrika je nach Gusto Strom, Wasserstoff oder sonstige Energien nach Europa zu führen versprach. Die hochfliegenden Pläne versandeten. Grund: Neben technischen und politischen Schwierigkeiten sprach sich ihre Unwirtschaftlichkeit langsam überall herum. Das, was Sonne und Wind liefern, ist einfach deutlich zu wenig an Energie. Eine Technologie, die nur mit Förderung funktioniert, kann wohl schwerlich als »die Zukunftstechnologie« verkauft werden.

Das hätte sich Henry Cavendish wohl in seinen kühnsten Träumen nie vorgestellt. Er war zwar ein schrulliger Naturwissenschaftler, aber so schrullig nun auch wiederum nicht, dass ihm eingefallen wäre, Wasserstoff als wichtigsten Energieträger einzuführen, dazu noch mit dem albernen Modelabel »CO2 frei« etikettiert. Vollends vor Lachen geschüttelt hätte es ihn, hätte er den Spruch vom »Zeitalter einer Wasserstoffwirtschaft« gehört, der gerade losgelassen wird.

Der Engländer Cavendish hatte bereits 1766 reinen Wasserstoff als erster isolieren und zeigen können, dass es ein chemisch nicht weiter teilbares Element ist. Als nüchterner Naturforscher war sein Prinzip »beobachten, messen und Fakten sammeln«. Wasserstoff produziert bei der Verbrennung mit Sauerstoff Wasser. 20 Jahre später wollte in Paris der schon damals bedeutende französische Chemiker Antoine Laurent de Lavoisier zeigen, dass bei chemischen Reaktionen keine Masse verloren geht und erhitzte Wasser in einem abgeschlossenen System. Er ließ das entstandene Wasserstoffgas knallen, erschreckte mit »Knallgasexplosionen« sein Publikum. »Hydro-gène«, »wasserproduzierend« nannte er das Gas. Beiden Naturwissenschaftler gemein war, dass sie sich nicht nur dafür interessierten, dass etwas funktioniert. Entscheidend ist vielmehr: Wieviel kommt dabei heraus? Wie sehen Massenbilanzen und Reaktionsgleichungen aus? Lavoisier war bekannt dafür, dass er Messmethoden für Massen und Gewichte entwickelte und peinlich genau bei jedem Experiment seine Messergebnisse aufzeichnete. Fakten als Grundlage für Erkenntnisse und Schlussfolgerungen.Genau das unterscheidet sie von heutigen Berliner Energiewendern und Propagandisten einer Wasserstoffwirtschaft. Die ehernen Regeln gelten heute zunehmend als veraltet. Wissenschaft und Technik haben sich dem Politwillen zu unterwerfen, und der ist im Zweifel »grün«.

Nachzutragen ist, dass die fanatischen französischen Revolutionäre mit dem Jahrhundertkopf Antoine de Lavoisier einen der führenden Wissenschaftler der damaligen Zeit guillotinierten. Der blindwütige Richter des Revolutionstribunals soll bei dem Schnellverfahren erklärt haben: »Die Republik braucht keine Wissenschaftler, ein einziger Mann von Geist an der Spitze des Staates reicht.«


Im zweiten Teil gehen wir auf die vergeblichen Versuche der Autoindustrie ein, dem Auto das Fahren mit Wasserstoff beizubringen.

Der Beitrag erschien zuerst bei TE hier




Amtlich festgestellt: Energiewende ist vermurkst

Wie jetzt, die Energiewende und ein Schwachpunkt? Das kann doch nicht sein, schließlich ist Deutschland Vorreiter und Herr Minister Altmaier sagt: „die ganze Welt eifert uns nach“, eine einzige Erfolgsstory. Und Frau Professor Claudi Kemfert hat das sogar wissenschaftlich bestätigt. Und nun soll ein nicht existenter „Schwachpunkt“ verschwinden?

Eine halbe Billion Euro (500.000.000.000 Euro) haben Stromkunden und Steuerzahler bisher so ungefähr in die Energiewende investiert. Jeder Deutsche, vom Baby bis zum Greis, hat in den letzten Jahren über 6.000 Euro für die Energiewende zwangsbezahlt. Und nun stellen von der Bundesregierung berufene Experten fest, dass die Maßnahmen der Regierung „zu kleinteilig, kurzfristig und nicht miteinander verzahnt“ sind, was „einer kosteneffizienten Klimapolitik entgegensteht“. Zu gut Deutsch: Die Energiewende ist ein einziger Murks. Doch das Geld ist futsch, es haben jetzt eben Andere.

Wer den Energiewendepfusch bisher kritisiert hat, war Klimaleugner und wurde als psychisch krank diagnostiziert. Andere Kritiker wurden als Energiewende-Hasser etikettiert und waren AFD-nah-zi. Die Vorgaben zur Energiewende kamen schließlich doch von „Experten“. In den von der Bundesregierung berufenen Kommissionen saßen renommierte Mitglieder von Naturschutzgruppen, BUND, Greenpeace, Potsdamer „Klimaforscher“, Ökoexperten, Wind- und Solarlobbyisten und Kirchenvertreter. Die Créme de la Créme der deutschen Umweltlobby – ein Schelm, wer dabei an Absicht denkt.

Das Problem der Merkelschen Kommisionitis dabei war eigentlich nicht das Ergebnis, das Problem war die Auswahl der Kommissionsmitglieder und deren Aufgabenstellung. Neudeutsch heißt sowas: „shit in – shit out“. Folgerichtig kam der Kernenergieausstieg bei gleichzeitigem Kohleausstieg heraus. Die Regierung aber freut sich, jetzt, wo’s schiefgeht, ist sie fein raus. Sie hat ja die Verantwortung für ihren politischen Pfusch auf Kosten der Bürger an Kommissionen ausgelagert. Das ist so eine typische „Merkelnummer“: Jetzt ist es eben passiert. Kann doch mal passieren.

Steuern statt Umlagen

Die Gutachter der Bundesregierung von der „unabhängigen Expertenkommission zum Monitoring der Energiewende“ empfehlen nunmehr, die leidige EEG- und KWK-Umlage komplett zu streichen und die Stromsteuer zu halbieren. Damit fielen zur Finanzierung der Energiewende pro Jahr zunächst einmal rund 25 Milliarden Euro aus EEG- und KWK-Umlage sowie 6,7 Milliarden Euro Einnahmen aus der Stromsteuer weg – da wissen die Leser endlich mal, wo ihr Geld so bleibt.

Die Gutachter der Bundesregierung wären aber nicht Gutachter der Bundesregierung, wenn sie nicht der Regierung eine satte CO2-Steuererhöhung in Höhe von 50 Euro pro Tonne CO2 empfehlen würden, die überall gelten soll, wo fossile Kraft- und Brennstoffe genutzt werden: vom Kraftwerk über die Tankstelle bis zur Heizungsanlage, ja eigentlich bis zum Frühstücksbrötchen.

Das reicht aber nicht, um das ewige Loch im Energiewende-Staatssäckel zu stopfen. Deshalb sollen in einer „Übergangszeit“ zum Stopfen der Finanzierungslücken Steuergelder eingesetzt werden, um die Taschen der Ökogewinnler weiterhin zu füllen und die Stromkunden zu entlasten.

Wenn ich höre „Stromkunden entlasten“, gehen bei mir alle Warnlampen an. Die bundesamtlichen Experten sagen: „bei einem Wenigfahrer mit effizienter Heizung“ bleiben dann unterm Strich noch 30 Euro Entlastung übrig. Das ist doch was, Hosianna! Nur, für die entbeutelten Bürger, die nicht „Wenigfahrer“, sondern Pendler sind und die Mieter, die sich keine „effiziente Heizung“ leisten können, heißt das nichts anderes als Mehrkosten: rechte Tasche, linke Tasche, noch mehr Energieabzocke. Denn Steuerzahler oder Stromkunden sind in der Regel dieselben Leute.

Der von mir hochgeschätzte Journalist Daniel Wetzel stellt in einem Kommentar der Welt-Online der Bundesregierung ein vernichtendes Zeugnis aus: „Der Bürger zahlt für politische Verantwortungslosigkeit“. Dem ist nichts hinzuzufügen. Die Energiewende aber schreitet weiter voran, solange die Zahlmichel sich das gefallen lassen. Was stört uns da die Wirtschaftskrise nach Corona – wir benennen Krisen einfach in „Herausforderungen“ um.

Der Beitrag erschien zuerst bei ACHGUT hier




Ihre Meinung zum KIimagesetz ist gefragt – Antworten Sie der EU Kommission!

Die EU-Kommission hat eine Umfrage zum „Klimagesetz“ gestartet. Wir bitten unsere Leser mitzumachen.

https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12265-2030-Climate-Target-Plan/public-consultation

Es wird vermutlich zwar überhaupt nichts nützen, aber da der Aufwand minimal ist, sollten Sie es trotzdem versuchen.

 




Coronapanik: Antwort auf kleine Anfrage – Bundesregierung räumt Schnellschuss bei Lockdown ein

46 Abgeordnete sind der Bitte gefolgt, und die Anfrage wurde am 11.05. als Bundestagsdrucksache 19/19081 veröffentlicht.  (hier) Inzwischen liegt auch die Antwort der Regierung vor, die als Bundestagsdrucksache 19/19428 vom 04.06.20 veröffentlicht wurde. (hier). Der Inhalt hat die 5 Professoren enttäuscht. Die Regierung hat sich bemüht, mit einer ausreichenden Anzahl von Worten möglichst nichts auszusagen. Trotzdem erkennen sie interessante Neuigkeiten.

Auf die erste Frage

„Welche konkreten Szenarien lagen am 13.03.20 vor, und aus welchen Grund hat sich die Regierung für Kontaktbeschränkungen und gegen die Herstellung der Herdenimmunität entschieden?“

wurde geantwortet, dass es nur die täglichen Situationsberichte des Robert-Koch-Instituts gab, die im Internet veröffentlicht sind. Damit bestätigt sie die Aussage von Stephan Kohn aus dem Innenministerium (siehe), dass es keine professionelle Entscheidungsvorbereitung gab. Ohne Folgenabschätzungen für verschiedene Handlungsalternativen in mehreren Szenarien war der Lockdown also nach dieser Antwort ein panischer Schnellschuss!

Auf die dritte Frage,

„Mit welchen Gründen rechtfertigt die Regierung die hohen wirtschaftlichen Schäden und die zusätzlichen Sterbefälle, die aus ihren Maßnahmen resultieren, vor allem unter Berücksichtigung der geringen geretteten Lebenszeit.“

Kam die kurze Antwort:

„Der Bundesregierung liegen keine Informationen zu einer geringen geretteten Lebenszeit in Bezug auf die Auswirkungen der Coronavirus-Pandemie vor …“

das sollten sie aber! Die Regierung räumt also ein, dass sie keine Ahnung hat!

Bei einer Konkurrenz verschiedener Grundrechte verlangt das Bundesverfassungsgericht, dass das geschützte Grundrecht das beeinträchtigte wesentlich überwiegt, dass die Beschränkung ein geeignetes Mittel ist und dass die Beschränkungen nicht übermäßig belastend sind. Ein größerer Nutzen kann einen größeren Schaden rechtfertigen. Die erste Bedingung wird von niemandem bestritten. Bei der zweiten Bedingung sieht die Regierung im Lockdown den Grund für den insgesamt glimpflichen Verlauf der Pandemie in Deutschland, sie kann aber nicht erklären, warum schärfere Maßnahmen in Spanien, Italien und Frankreich zu einem ungünstigeren Verlauf geführt haben, wo es nach der Regierungslogik doch eigentlich andersherum sein müsste. Im Mittelalter wurden gegen Epidemien Gottesdienste abgehalten, und sie wurden auch für den Grund gehalten, warum die Krankheiten am Ende überstanden wurden. Die 5 Professoren glauben eher an die Wirkung von Antikörpern, die sich nach einer überstandenen Infektion bilden, sie können aber nicht widerlegen, dass Kontaktbeschränkungen und Gebete auch eine Wirkung haben.

Entscheidend ist aber die dritte Bedingung. Für sie wäre aber eine professionelle Entscheidungsvorbereitung mit einer Folgenabschätzung jeweils mit und ohne die geplanten Maßnahmen unverzichtbar gewesen. Die hat es nach der Antwort auf die Frage 1 nicht gegeben. Dafür hätte nicht nur der wirtschaftliche Schaden vor dem Lockdown beziffert werden müssen, man hätte auch eine Berechnung der zu rettenden Lebenszeit als Ausdruck für den Nutzen der Maßnahmen vornehmen müssen. Die Aussage von Boris Palmer, man rette Menschen, die in einem halben Jahr sowieso tot wären, beschreibt diesen Konflikt zutreffend. Ein enormer Schaden könnte nur mit einem gigantischen Nutzen gerechtfertigt werden. Wenn die Regierung – wie sie in der Antwort auf die kleine Anfrage eingeräumt hat – hierzu keine Informationen hatte, hätte sie die grundrechtsbeschränkenden Maßnahmen nicht beschließen dürfen. Der Lockdown war also verfassungswidrig! 

gez. Prof. Dr. Werner Müller
als Koordinator der Gruppe der 5 Lockdown-kritischen Professoren

Keine Antwort ist auch eine Antwort!

Mit der Antwort der Regierung auf die Kleine Anfrage hat sie sich bemüht, mit einer ausreichenden Anzahl von Worten möglichst nichts auszusagen. Deshalb ist vornehmlich zu analysieren, vor welchen Antworten sich die Regierung herumgedrückt hat. Man kann folgende Antworten herauslesen:

zu Frage 1:
Die Regierung hatte nur die vom Robert-Koch-Institut veröffentlichten Situationsberichte und sie bestätigt damit die Aussage von Stephan Kohn aus dem Innenministerium, dass es keine professionelle Entscheidungsvorbereitung gab. Der Lockdown war also ein panischer Schnellschuss!

zu Frage 2:
Die Regierung weicht aus und verweist auf die Übersterblichkeit in Europa, sie hat aber lt. Antwort auf die Frage 3 keine Informationen über die statistische Lebenserwartung von 82jährigen in Deutschland. Es gibt also keine Rechtfertigung!

zu Frage 3:
Antwort: „Der Bundesregierung liegen keine Informationen … vor…“ – sollten sie aber! Die Regierung räumt also ein, dass sie keine Ahnung hat!

zu Frage 4:
Gefragt wurde nach Lernmotivation und Sozialverhalten und die Bundesregierung antwortet zu Übertragungswahrscheinlichkeiten und Krankheitsverläufen. Aus dieser Antwort folgt, dass ihr die wirklichen Probleme der Kinder und Jugendlichen egal sind!

Hier wird die am 04.06.2020 als Bundestagsdrucksache 19/19428 veröffentlichte Antwort der Bundesregierung (http://dipbt.bundestag.de/doc/btd/19/194/1919428.pdf) mit meinen Kommentaren wiedergegeben:

….

Vorbemerkung der Bundesregierung
Bei der aktuellen Pandemie des neuartigen Coronavirus (SARS-CoV-2) handelt es sich – von Beginn an – um ein sehr dynamisches Geschehen, in Deutschland wie auch weltweit. Alle Entscheidungen der Bundesregierung wurden abhängig vom jeweiligen Infektionsgeschehen auf nationaler und internationaler Ebene sowie in Abwägung der verfügbaren fachlich-wissenschaftlichen Erkenntnissen in diesem Zusammenhang getroffen. Die Bewertung des Infektionsgeschehens erfolgt kontinuierlich u. a. durch das Robert Koch-Institut und kann tagesaktuell auf dessen Internetseite abgerufen werden. Dies beinhaltet auch umfangreiche Informationen zum verfügbaren wissenschaftlichen Erkenntnisstand.

Kommentar:

Die Regierung hatte also keine eigenen Erkenntnisse! Das Handelsblatt vom 26.03.20 schrieb:

„In den ersten Monaten der Coronakrise waren die Politiker das größte Problem, weil sie keine Ahnung von Virologie hatten. Jetzt, da die Seuchenexperten übernommen haben, zeigt sich eine andere Schwäche: Virologen haben im Gegenzug wenig Ahnung von Politik oder gar Wirtschaft.“ (hier)

Transparency International kritisierte während der Schweinegrippe 2009, dass 13 der 16 Mitglieder der Ständigen Impfkommission des Robert-Koch-Instituts von der Pharmaindustrie bezahlt wurden. Diese Branche ist keine Wohltätigkeitsorganisation, sie will Umsatz machen. Warum haben die großen Pharmaunternehmen mit Ausnahme von Fresenius Vertriebskostenanteile von 30 %, obwohl der Vertrieb von Großhandel und Apotheken organisiert wird und für verschreibungspflichtige Medikamente nicht geworben werden darf? Sind die Masse der hier verbuchten Kosten Provisionen? Wer gut schmiert, der gut fährt! Und die Pharmaindustrie fährt derzeit recht gut. Pharmaaktien sind die Gewinner der Corona-Krise (hier) Aber wer diesen Zusammenhang aufzeigt wird als Verschwörungstheoretiker abgestempelt.

Die Regierung hat die Macht Virologen überlassen, die von der Pharmaindustrie gesponsert werden, und für die eine Problemlösung ohne Medikamente keine Option ist. Sie gefährden lieber die wirtschaftliche Grundlage unseres Landes, als die Gewinne ihrer Sponsoren. Sie hat den Bock zum Gärtner gemacht!                                                                                      [Ende des Kommentars]

 

Vorrangiges Ziel der jeweils eingeleiteten Maßnahmen war und ist es, die Ausbreitung des neuartigen Coronavirus (SARS-CoV-2) in Deutschland einzudämmen bzw. zu verlangsamen, um Menschen vor Infektionen zu schützen und eine Überforderung des Gesundheitssystems zu vermeiden.

Kommentar:

Die Befürchtung einer Überforderung des Gesundheitssystems wurde in der Antwort der Bundesregierung auf die Kleine Anfrage nicht mit Zahlen belegt. Es wurde den 5 Professoren aber schon früher von einem CDU-Abgeordneten mitgeteilt, dass ohne Lockdown von 75.000 Infektionen täglich ausgegangen wurde. Bei einer in der Heinsberg-Studie ermittelten Dunkelziffer von 90 % wäre das 7.500 täglich gemeldete Fälle gewesen. Von den aktuell gemeldeten Fällen mussten durchschnittlich 19 % [21.028 von 178.570, bei 7.500 täglich gemeldeten Fällen wäre es täglich 1.425 gewesen – das RKI-Szenario (Dr. Matthias an der Heiden / Dr. Udo Buchholz / Robert Koch-Institut, Abteilung für Infektionsepidemiologie, Modellierung von Beispielszenarien der SARS-CoV-2-Epidemie 2020 in Deutschland, S. 4 – diese Studie wurde zwar erst am 20.03.20 veröffentlicht, die Eckdaten dürften im RKI aber schon eine Woche früher vorgelegen haben) rechnete mit 4,5 %, also 45 % der gemeldeten Fälle]  für 14 Tage im Krankenhaus, was lt. Szenario 21.000 Patienten über mehrere Wochen ergab. Mit Lockdown lag der Spitzenwert bei 5.705. Aus dem Dunkelfeld ist dagegen niemand ins Krankenhaus gegangen, denn dann wären diese Fälle ja gemeldet worden. Die Krankenhäuser haben aber 125.000 Betten für Corona-Patienten freigemacht. Nach dem RKI-Szenario wurde mit einem 25-%-Anteil auf Intensivstationen gerechnet, also 5.125 Patienten. Mit Lockdown lag der Spitzenwert bei 2.908 (21.04.) und es waren ständig etwa 12.000 Intensivbetten frei. Nach den Zahlen vom 25.05. wurden zwar 61,5 % statt 25 % der hospitalisierten Patienten auf die Intensivstation verlegt; im Ergebnis war das Szenario des RKI in diesem Punkt aber ziemlich genau (19 %  61,5 % = 11,71 %; 45 %  25 % = 11,25 %). Bei 75.000 Neuinfektionen täglich wäre also mit etwa 5.336 Patienten auf den Intensivstationen zu rechnen gewesen, was einer Auslastung von 43 % entsprochen hätte.

Es hat sich also niemand die Mühe gemacht, die Zahlen des RKI durchzurechnen. Stattdessen wurden die Empfehlungen des RKI umgehend umgesetzt. Das RKI wiederum wird von der Pharmaindustrie beeinflusst. Man hat sich für die Kontaktbeschränkungen entschieden, weil die Herdenimmunität schlecht für das Geschäft ist.

Auch ohne Lockdown wäre selbst die Hightech-Medizin nicht an ihre Kapazitätsgrenze gekommen, und das Gesundheitssystem insgesamt wäre auf keinen Fall zusammengebrochen. Es sollte auch Pläne für den Katastrophenschutz geben, wie man auch Millionen von Kranken oder Verletzten noch mindestens notdürftig versorgen kann; Hightech-Medizin geht dann natürlich nicht. Das Gesundheitssystem würde aber auch dann nicht zusammenbrechen. Nach dem Papier aus dem BMI ist diese Planung aber wohl sehr lückenhaft.

Es gab also keine Szenarien, sondern nur Horrormeldungen aus der Pharmaindustrie, die der Regierung vom Robert-Koch-Institut (13 von 16 Mitglieder der Ständigen Impfkommission des RKI wurden von der Pharmaindustrie bezahlt) vorgelegt wurden.

Nach der Feststellung, dass es keinen Impfstoff und keine Medikamente gibt, hätte man sich mit dieser Situation arrangieren und die Wehklagen beenden müssen. Das vorrangige Ziel der Verhinderung von Infektionen war in dieser Situation falsch. Es hätte vielmehr eine Ausbreitung in den Nichtrisikogruppen gefördert werden müssen, um eine natürliche Immunisierung zu erreichen. Die Schutzmaßnahmen hätten dann nur auf Risikogruppen bezogen werden dürfen. Dann wären die Kinder und Jugendlichen und insbesondere die Wirtschaft wesentlich geringer Belastet worden. Lediglich die Pharmaindustrie hätte das Risiko gehabt, dass man einen Impfstoff, wenn er dann irgendwann entwickelt würde, dann nicht mehr brauche würde.

[Ende des Kommentars]

Durch die eingeführten Beschränkungen wurde die Ausbreitung des neuartigen Coronavirus in Deutschland erfolgreich verlangsamt. Diese Erfolge gilt es in den nächsten Wochen zu sichern und gleichzeitig Beschränkungen des öffentlichen Lebens unter Berücksichtigung der epidemischen Lage gegebenenfalls nach und nach zu lockern. Dabei erfolgt eine kontinuierliche Kontrolle des Infektionsgeschehens, der Auslastung des Gesundheitswesens und der Leistungsfähigkeit des öffentlichen Gesundheitsdienstes als Grundlage für weitere Maßnahmen oder Lockerungen. Zuständig für den Erlass von Schutzmaßnahmen zur Bekämpfung ansteckender Krankheiten sind die Bundesländer und Kommunen. Diese entscheiden auch über Beschränkungs- oder Öffnungsmaßnahmen im Bereich der Schulen unter Einhaltung infektionshygienischer Maßnahmen.

Kommentar:

Der Erfolg hat viele Väter! Dass die Maßnahmen der Regierung für die Abnahme der Fallzahlen verantwortlich sei, wird in Fachkreisen teilweise bestritten. Weil bei einer Dunkelziffer von 90 % die gemeldeten Fallzahlen mehr von den durchgeführten Tests als vom wirklichen Infektionsgeschehen abhängen, sind die Statistiken, auf die sich die Regierung mit dieser Aussage stützt, nicht sehr belastbar. Zudem wird der Zeitverzug zwischen der wirklichen Infektion und Meldedatum nicht angemessen berücksichtigt. Täte man dies, dann müssten die Maßnahmen der Regierung gewirkt haben, bevor sie überhaupt umgesetzt wurden. Die als Verschwörungstheoretiker diffamierten Kritiker glauben eher an die Wirkung von Antikörpern als an Politiker.

Der Fraktionsvorsitzende der FDP im Bundestag hat der Regierung am 23.04.20 vorgeworfen, das Virus mit den Methoden des Mittelalters zu bekämpfen. Wenn man diesen Gedanken fortsetzt, dann wurden Epidemien damals mit Gebeten und Prozessionen bekämpft; heute glaubt man an den Lockdown und Impfstoffe, die es aber noch nicht gibt. Früher wurden Opfer gebracht; heute auch! Früher hat niemand das Haus ohne Kruzifix verlassen, heute ist es der Mund-und-Nasen-Schutz. Wenn im Mittelalter die Welle vorüber war, haben früher die Gebete geholfen, heute sind es die Kontaktbeschränkungen. Und will eine christlich geführte Bundesregierung behaupten, die vielen Gebete gläubiger Menschen, die es auch in dieser Zeit gegeben hat, wären nur fauler Zauber und wirkungslos?

Wer früher die Macht der Kirche angezweifelt hat, wurde als Ketzer auf dem Scheiterhaufen verbrannt. Wer heute in einem Interview erwähnt, dass ein Drittel der Verstorbenen Bewohner von Alten- und Pflegeheimen sind, die dort im Durchschnitt 11 Monate nach ihrem Einzug versterben (Zitat: Wir retten Menschen, die möglicherweise sowieso bald sterben) wird danach von seiner   eigenen Partei in den Medien öffentlich hingerichtet – Methoden des Mittelalters!

[Ende des Kommentars]

 

Zu den Fragen:

1.Welche konkreten Szenarien lagen am 13. März 2020 vor, und aus welchem Grund hat sich die Bundesregierung für Kontaktbeschränkungen und gegen die Herstellung der Herdenimmunität entschieden (siehe Vorbemerkung der Fragesteller)?

Informationen zur epidemiologischen Lage am 13. März 2020 in Deutschland, in Europa und weltweit sind in den Situationsberichten des RKI dokumentiert und unter folgendem Link abrufbar: www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Situationsberichte/Archiv.html. Ferner wird auf die Vorbemerkung der Bundesregierung verwiesen.

Kommentar:

Nach den Erkenntnissen aus dem Papier von Stephan Kohn aus dem BMI mit dem Titel „Analyse des Krisenmanagements“, hat es keine professionelle Risikobewertung durch die Regierung gegeben, und es kann dann auch keine normale Entscheidungsvorbereitung gegeben haben. Die Antwort der Bundesregierung bestätigt diese Aussage. In ihr wird erklärt, dass der Regierung am 13.03. nur der Situationsbericht des RKI vom 13.03.20 vorgelegen habe. Darin ist kein Szenario zu Handlungsalternativen (mit und ohne Lockdown, Lockdown nur für Risikogruppen) enthalten, schon gar nicht mit Best-Cases- und Worst-Cases-Variation. Im Ergebnis wird in der Antwort der Bundesregierung eingeräumt, dass die Regierung im Blindflug entschieden hat.

Es ist erschreckend, wie leichtfertig aus einem Bauchgefühl heraus Maßnahmen beschlossen wurden, die Schäden in Billionenhöhe verursachen; sowohl für die Steuerzahler als auch für die Bürger direkt, die nicht alle Einbußen aus der Staatskasse ersetzt bekommen. Bei nur 1 Bio. € kämen auf eine vierköpfige Familie Belastungen von 50.000 € zu. Diese Kosten wurden nach der Antwort der Regierung wie auch nach den Aussagen von Stefan Kohn ohne jede professionelle Entscheidungsvorbereitung verursacht. Es wurde billigend in Kauf genommen, dass sich die Maßnahmen ggf. auch als wirkungslos herausstellen könnten.                   [Ende des Kommentars]

 

2. Was waren die Gründe, wegen der die Bundesregierung in der Covid-19-Pandemie eine Bedrohung für die Bevölkerung sieht, obwohl sich die Sterblichkeit nicht wesentlich von den alltäglichen Todesfällen unterscheidet und sie sogar wesentlich niedriger ist als im Januar/Februar 2017, März/April 2018 und Juli/August 2018, als die Bundesregierung keinerlei Aktivität gezeigt hat (siehe Vorbemerkung der Fragesteller)?

Bei dem Coronavirus handelt es sich um ein neuartiges Virus, gegenüber dem in der Bevölkerung kein natürlicher Immunschutz besteht. Hinzu kommt, dass aktuell kein Impfstoff und keine wirksame Therapie zum Schutz vor SARS-CoV-2 zur Verfügung stehen. Vor diesem Hintergrund wurden anti-epidemische Maßnahmen eingeführt, die die Ausbreitung des neuartigen Coronavirus in Deutschland erfolgreich verlangsamt und Infektionen und Todesfälle erfolgreich verhindert haben.
Bei den oben aufgeführten zusätzlichen Todesfällen handelt es sich um sogenannte Übersterblichkeitsschätzungen (Exczess-Mortalität) während vergleichsweise schwerer Grippewellen (Saison 2016/17, Saison 2017/18) bzw. um Übersterblichkeitsschätzungen während einer extremen Hitzephase im Sommer 2018. Bei Influenza steht eine Impfung zur Verfügung, und auch bei einer Hitzewelle sind vorbeugende Maßnahmen möglich.
Erste europäische Übersterblichkeitsschätzungen zeigen, dass seit Beginn der erhöhten SARS-CoV-2-Zirkulation in den Monaten März und April Ausmaße erreicht wurden, die weder in den Grippesaisons 2016/17 oder 2017/18 noch im Sommer 2018 verzeichnet wurden, obwohl praktisch alle Länder in Europa massive Maßnahmen zur Kontaktreduzierung ergriffen hatten (www.euromo-mo.eu/).

Kommentar:

Es ist interessant, wie gut die Bundesregierung über die Übersterblichkeit in Europa informiert ist, aber lt. Antwort auf die Frage 3 keine Informationen über die statistische Lebenserwartung von 82jährigen in Deutschland hat.

In Deutschland kam es erst ab dem 25.03. zu einer Übersterblichkeit gegenüber dem Dreijahresdurchschnitt der Vorjahre, vorher gab es aber eine erhebliche Untersterblichkeit. Für die aktuell verfügbaren Zahlen bis zum 10.05. gab es 2020 354.427 Sterbefälle (der 29.02. wurde wegen der Vergleichbarkeit herausgerechnet) um im Dreijahresdurchschnitt 366.469. Mit Corona sind also bisher in 2020 12.042 Menschen weniger gestorben als ohne Corona!

Sterblichkeit bis zum 10.05.2020

Wenn man die Daten nach Jahren (statt 3-Jahres-Durchschnitt) und Altersgruppen (< 60, 60-79, ab 80) trennt und für 2017-19 das ganze Jahr betrachtet, sieht man folgende Details:

Quelle: eigene Berechnung aus Daten des Statistischen Bundesamtes

Nur in wenigen Ländern, wie zum Beispiel in Italien und Spanien oder in spezifischen Gegenden bestimmter Länder, lagen die Spitzen für kurze Zeit über der Kapazität des Gesundheitssystems. In den meisten Ländern erwies sich auch bei hohen Belastungen das Gesundheitssystem flexibler als erwartet worden war. Gemäß dem EuroMOMO Bulletin, das die Sterblichkeitsraten in Europa registriert, war in der Mehrzahl der Länder in der Wintersaison 2019/2020 keine Übersterblichkeit zu verzeichnen, und die Spitzen blieben unter beziehungsweise innerhalb des Bereiches der früheren Phasen von Grippeausbrüchen. In den Ländern, in denen der Höchststand im Jahr 2020 die früheren Sterblichkeitsraten überstieg, waren die Spitzenwerte höher, dabei aber die Basis kleiner, was bedeutet, dass auch in diesen Ländern die Gesamtzahl der saisonalen Todesfälle nicht gestiegen ist.

Die Anzahl der gemeldeten Todesfälle für alle Altersgruppen in Europa zeigt, dass es 2020 zwar einen höheren Höchststand gab als in den Vorjahren, da aber die Basis im Jahr 2020 kleiner war als in den Jahren zuvor, war die Gesamtzahl der Todesfälle nicht signifikant höher.

Für Norditalien sehen Forscher der Universität von Siena einen Zusammenhang mit der Luftverschmutzung, was als Aufsatz unter dem Titel Can atmospheric pollution be considered a co-factor in extremely high level of SARS-CoV-2 lethality in Northern Italy? (Kann die Luftverschmutzung als Co-Faktor für die extrem hohe SARS-CoV-2-Letalität in Norditalien angesehen werden?) auf  https://www.sciencedirect.com/science/article/pii/S0269749120320601 publiziert wurde.

Zusammenfassung (deutsche Übersetzung)

„In diesem Artikel wird die Korrelation zwischen der hohen Letalität des CoronaVirus 2 (SARS-CoV-2) mit schwerem akutem respiratorischen Syndrom und der Luftverschmutzung in Norditalien untersucht. In der Tat sind die Lombardei und die Emilia Romagna italienische Regionen mit der weltweit höchsten Virusletalität und einem der am stärksten verschmutzten Gebiete Europas. Basierend auf dieser Korrelation analysiert dieser Artikel den möglichen Zusammenhang zwischen Umweltverschmutzung und der Entwicklung eines akuten Atemnotsyndroms und schließlich des Todes. Wir liefern Belege dafür, dass Menschen, die in einem Gebiet mit hohem Schadstoffgehalt leben, anfälliger für chronische Atemwegserkrankungen sind und für jeden Infektionserreger geeignet sind. Darüber hinaus führt eine längere Exposition gegenüber Luftverschmutzung auch bei jungen und gesunden Probanden zu einem chronischen Entzündungsreiz. Wir kommen zu dem Schluss, dass die hohe Verschmutzung in Norditalien als zusätzlicher Faktor für die in diesem Gebiet festgestellte hohe Letalität angesehen werden sollte.“

Daraus ergibt sich die Frage, ob die niedrigeren Todesraten in Deutschland auch mit einer besseren Luftqualität zusammenhängen können.                                             [Ende des Kommentars]

 

3. Mit welchen Gründen rechtfertigt die Bundesregierung die hohen wirtschaftlichen Schäden und die zusätzlichen Sterbefälle, die aus ihren Maßnahmen resultieren, vor allem unter Berücksichtigung der geringen geretteten Lebenszeit (siehe Vorbemerkung der Fragesteller)?

 

Der Bundesregierung liegen keine Informationen zu einer geringen geretteten Lebenszeit in Bezug auf die Auswirkungen der Coronavirus-Pandemie vor; im Übrigen wird auf die Vorbemerkung der Bundesregierung verwiesen.

Kommentar:
Die Aussage der Regierung, dass sie keine Informationen hat, ist absolut glaubwürdig. Sie hat nicht nur keine Information, sie hat auch keine Ahnung! Sie hat sich auch in der ganzen Entscheidungsfindung nie bemüht, Informationen zu bekommen. Die sind z.B. in den Veröffentlichungen des Statistischen Bundesamtes verfügbar. Daten, die Bürger daraus recherchiert haben, werden von der Regierung als Verschwörungstheorie abgetan.

Auf die zentrale Frage der Verhältnismäßigkeit ist die Regierung mit ihrer Antwort nicht eingegangen. Weil sie keine Folgenabwägung getroffen hat, kann sie nicht nachweisen, dass die Maßnahmen angemessen sind. Damit sind sie verfassungswidrig!

Das Bundesverfassungsgericht verlangt bei der Konkurrenz von Grundrechten, dass die Einschränkungen geeignet sind und dass das geschützte Rechtsgut das beeinträchtigte wesentlich überwiegt.

Aus der Antwort zu Frage 2 geht hervor, dass die Regierung die Kontaktbeschränkungen für ein wirksames Mittel hält, wie man im Mittelalter auf Gottesdienste gesetzt hat. Obwohl die 5 Professoren die Bildung von Antikörpern nach einer überstandenen Infektion für wirksame halten, kann weder die Wirksamkeit der Gebete, noch der Kontaktsperre widerlegt werden.

Die Frage „… wesentlich überwiegt …“ kann ohne eine überschlägige Berechnung der geretteten Lebenszeit nicht beantwortet werden. Anders als beim Luftsicherheitsgesetz geht es nicht darum, dass der Staat bedrohtes Leben aktiv opfern würde. Es stellt sich die Frage, ob bedrohtes Leben mit sehr hohem Aufwand und mit extremen Kollateralschäden gerettet werden muss. Hierzu hatte die Regierung nach eigener Aussage keine Information, und sie hat sich trotzdem für die Kollateralschäden entschieden. Ohne Folgenabschätzung (siehe Frage 1) und ohne eine Vorstellung zum Umfang der zu rettenden Lebenszeit konnte die verfassungsrechtlich für die Einschränkung von Grundrechten gebotene Güterabwägung nicht vorgenommen werden. Die Antwort der Regierung zur Frage 3 bestärkt die 5 Professoren in der Einschätzung, dass die Maßnahmen der Regierung übermäßig belastend und damit verfassungswidrig waren.

Unsere Gesellschaft wird immer älter. Die Gruppe der über 80jährigen hat sich in den letzten 30 Jahren etwa verdoppelt. Jedes Jahr kommen 700-750.000 Menschen hinzu – Tendenz steigend – und jedes Jahr stirbt etwa 10 % der Altersgruppe. Die Todesfälle machen aber nur etwa 70 % des Zugangs aus. Dadurch wächst die Altersgruppe jedes Jahr um etwa 210.000 Menschen an. Aktuell sind es ca. 5.750.000. Diese Altersgruppe stellt etwa 64 % der Corona-Toten, während ihr Anteil an den bisherigen Sterbefällen in den letzten Jahren nur 55-60 % betrug; Tendenz steigend. Hierbei ist aber auch zu berücksichtigen, dass jüngere Menschen häufiger an Unfällen sterben als die Alten. Die Bezeichnung als Risikogruppe ist deshalb zu hinterfragen. Das besondere Risiko einer Covid-19-Infektion geht mindestens nicht erheblich über das allgemein hohe Todesrisiko dieser Bevölkerungsgruppe hinaus. Die bisherigen Corona-Todesfälle in dieser sog. Risikogruppe machen nur etwa 1 % der üblichen Todesfälle aus, und das bei einer immer älter und damit auch immer gebrechlicher werdenden Altersgruppe. Jede Grippewelle im Winter oder Hitzewelle im Sommer macht sich in der Todesfallstatistik in dieser Altersgruppe viel stärker bemerkbar als Codiv-19. Selbst die 20fachen Todesfälle würden nicht dazu führen, dass die Altersgruppe schrumpfen würde.

Die Bundesregierung unterstellt offensichtlich, dass die bisherige Bevölkerungsentwicklung ewig so weitergeht. Aber in der Natur wachsen die Bäume nicht in den Himmel! Die Fragen um Alter, Krankheit und Tod haben aber mehr mit der Natur zu tun als mit politischen Entscheidungen. Es ist unvermeidbar, dass die Lebenserwartung nicht immer weiter steigen kann. Irgendwann hat der Körper keine Kraft mehr. Natürlich gibt es auch Beispiele von gesunden und aktiven 90jährigen, die Mehrheit dieser Altersgruppe hat aber eine sehr eingeschränkte Lebensqualität. Diese Menschen wissen, dass sie keine Zukunft mehr haben, sie leiden mindestens psychisch darunter und die Mehrheit von Ihnen wünscht sich, dass sie nicht mehr lange leiden müssen.

Es ist also keine Naturkatastrophe, wenn jetzt ein Prozess einsetzt, der angesichts der Bevölkerungsentwicklung der letzten Jahrzehnte unausweichlich ist. Die Natur verlangt nach ihrem Recht und es wird am Ende nur eine unnatürliche Entwicklung der Vergangenheit leicht korrigiert.

Die 5 Professoren haben vorgerechnet, dass jetzt Geretteten durchschnittlich noch etwa 1.000 Tage (= 2,74 Jahre) leben werden. Die Zahl der Menschen, die wegen einer schweren Krankheit in den nächsten 2 Monaten mit ihrem Tod rechnen müssen, kann (bei 950.000 Todesfällen jährlich, davon etwa 10 % plötzlich) auf etwa 140.000 geschätzt werden. Die Geretteten sind überwiegend dieser Gruppe zuzurechnen! Lt. RKI vom 25.05. sind 3.138 Bewohner von Alten- und Pflegeheimen gestorben, die dort im Mittel 11 Monate bis zu ihrem Tod leben. Bei 8.257 Todesfällen insgesamt sind das 38 %, und weil sie nicht sofort nach ihrem Einzug infiziert wurden haben die vermiedenen Todesfälle also noch im Mittel etwa 150 Tage mit eingeschränkter Lebensqualität gelebt. Es gab auch die 30jährigen, die nichts von ihrer Krebserkrankung wussten, ohne Corona nicht zum Arzt gegangen wären und ohne Corona noch 2 Jahre gelebt hätten.

Die Regierung verweigert jeden nüchternen Blick auf die Todesfallstatistik des Statistischen Bundesamtes und sie ist nicht bereit, sich den nötigen Überblick über ein unangenehmes Thema zu verschaffen. Nur aus diesem Grund hat die Bundesregierung keine Informationen über die zu erwartende Restlebenszeit der Geretteten.                                                       [Ende des Kommentars]

 

4. Was sind die Gründe für die Schließung von Kindertagesstätten, Kindergärten, Schulen und Hochschulen, wenn die Erkrankung doch an jungen Menschen spurlos vorbeigeht und eine natürliche Immunität möglichst vieler Menschen eher hilfreich im Kampf gegen noch wenig bekannte Erreger ist (siehe Vorbemerkung der Fragesteller)?

 

Untersuchungen zur Rolle von Kindern bezüglich Empfänglichkeit für eine Infektion, die Übertragungswahrscheinlichkeit auf andere Personen und das Risiko für schwere Krankheitsverläufe dauern an. Verschiedene Studien zu Kindern beziehen sich auf Situationen mit geschlossenen Kindertagesstätten und Schulen, die nicht auf den normalen Alltag übertragbar sind. Selbst die Dauer und Stärke einer Immunität sowie der Schutz durch diese mögliche Immunität gegen schwere Erkrankungen nach durchgemachter Infektion ist noch ungeklärt. Studien des RKI und anderer Institutionen dazu sind angelaufen oder befinden sich zur Zeit in Vorbereitung.

Kommentar:
Nach der Antwort der Bundesregierung sind alle Fragen im Zusammenhang mit Kindern ungeklärt. Die Regierung hat also nach der Maxime gehandelt: „Erst schießen – dann fragen!“

Es ist geklärt, dass nur 3 von 8.257 mit Corona-Infektion gestorbenen Menschen unter 20 waren, und dass auch sie schwere Vorerkrankungen hatten. In diese Altersgruppe mit ca. 15 Mio. Menschen wurden 11.395 Infektionen festgestellt; die Todesrate lag also bei 0,26 Promille. Jedes Jahr sterben 50-60 Kinder unter 15 im Straßenverkehr und etwa 40 an Leukämie. Kinder und Jugendliche sind also nicht betroffen, tragen aber wegen der Schließung der Schulen und Kitas neben den Selbständigen die Hauptlast des von der Bundesregierung zu vertretenden Kollateralschadens.

Besonders bei Grundschulkinder wird erst durch gruppendynamische Prozesse eine gewisse Lernmotivation erzeugt, die jetzt wegfällt. Mit eigenverantwortlichem Lernen sind diese Kinder überfordert, und die Eltern sind mit den Anforderungen an das homeschooling restlos überfordert. Weil die Grundschulen vor den Sommerferien nur symbolisch öffnen, werden im Ergebnis 5 Monate Unterricht wegfallen, in denen die Grundschulkinder auch viel wieder vergessen. Im Ergebnis wir ein volles Schuljahr zerstört. Die Bundesregierung antwortet aber nur zu Übertragungswahrscheinlichkeiten und Krankheitsverläufen. Aus dieser Antwort folgt, dass ihr wirklichen Probleme der Kinder egal sind!

Böse Zungen mögen behaupten, dass Kinder keine Wähler sind und die treuesten Wähler von CDU und SPD sind die alten Leute. Sollen nur möglichst viele von ihnen mit aller Gewalt bis zur Bundestagswahl an Leben gehalten werden, koste es was es wolle?
[Ende des Kommentars]

Die gesamte Information finden Sie hier

 




DUBIOSE  MODELLE

Ein ganz süßes Video

Sicherlich haben Sie schon einmal, liebe Leserin, ein ganz süßes Video wie dieses https://www.youtube.com/watch?v=HjzjSvY0vlU mit ein paar Freundinnen geteilt, und Sie lieber Leser haben den Clip eines attraktiven Models an Ihre Kumpels verschickt. Da kann man dann fragen, wie sich solche kleinen Geschenke über die Menschheit ausbreiten, wenn jeder der Bescherten genau so weitermacht.

Dazu treffen wir ein paar Annahmen über die Wirklichkeit. Wir gehen davon aus, dass jeder den Clip mit 10 Freund/innen teilt, und dass der Empfänger es dann ebenso macht; und so weiter. Wie viele haben den Clip nach 10 Tagen? Nach dem ersten Tag sind es Sie plus 10 Freunde, macht 11. Nach dem zweiten Tag sind es Sie, Ihre 10 Freunde plus deren jeweils 10 Freunde, also 1 plus 10 plus 100, macht 111.

Nach 10 Tagen wird daraus eine Zahl aus elf Einsen; das sind im Klartext 11 Milliarden.

 

Modelle sind eigenwillig

Wir haben also versucht, die Wirklichkeit durch Mathematik abzubilden. Dazu haben wir angenommen, dass der Zuwachs an neuen Betrachtern des Videos proportional ist zur Zahl der existierenden. So etwas wird durch eine „Exponentialfunktion“ beschrieben, weil man den Zuwachs als 10 hoch n schreiben könnte, wobei n, die Anzahl der Tage, als „Exponent“ bezeichnet wird.

Dieses simple Computermodell zeigt uns etwas Interessantes:

Es gibt da Annahmen, die das Endresultat extrem beeinflussen: Wir gehen davon aus, dass unsere Freunde und Freundesfreunde täglich teilen. Würden sie aber nur am Wochenende teilen, dann hätten wir nach 10 Tagen nur gut hundert Bescherte, nicht elf Milliarden! Das ist ein Unterschied.

Wir haben behauptet, dass jeder 10-mal teilt. Bei 5 „Shares“, so wie es uns WhatsApp maximal zugesteht, wären wir bei rund 10 Millionen gelandet. Auch noch eine große Zahl, aber immerhin nur ein Tausendstel der vorherigen.

Die Zeitspanne – täglich oder nur am Sonntag – und die Zahl der Shares sind die „Parameter“ unseres Modells, und wenn wir die nicht ganz genau kennen, dann wird das Resultat nicht nur falsch, es kann grotesk unsinnig werden.

 

Die innere Logik

Aber nicht nur die Parameter des Modells müssen stimmen, auch die innere Logik des Vorgangs muss durch die Mathematik richtig abgebildet sein. Wir müssen bedenken, dass über kurz oder lang die einen oder anderen antworten: „Ja, super Clip, kannt´ ich aber schon.“ Die dürfen wir dann nicht mehr zählen.

In unserem Modell hatten wir das nicht berücksichtigt. Es waren also die Parameter unsicher und die Logik falsch. Als Folge davon war das Resultat unbrauchbar.

Sie sagen, das sei trivial? Dann sagen Sie das bitte auch Herrn Neil Ferguson, Professor am Imperial College London, und seinen deutschen Kollegen, die mit ihren fürchterlichen mathematischen Modellen in Sachen Corona berühmt und berüchtigt wurden. Vermutlich lagen auch deren Annahmen zur intrinsischen Logik der Epidemie daneben, oder die Parameter waren ungenau, oder beides. Vielleicht haben auch sie „täglich“ angenommen, wenn „wöchentlich“ richtig gewesen wäre. Und heraus kam ein abstruses Ergebnis.

Globales Energie Budget mit den wichtigsten Einflussgrößen und Abhängkeiten, Grafik Willy Soon

Eine Maschine voller Schräubchen

Keine Sorge, wir werden jetzt nicht das einzig richtige Computermodell zur Ausbreitung einer Pandemie entwickeln, wir wollten nur aufzeigen, wie leicht so ein Modell uns total in die Irre führen kann.

Noch komplizierter ist vermutlich der Mechanismus unseres Klimas. Da gibt es neben CO2 so viele andere Einflussfaktoren, welche alle in unserem Modell auftauchen müssen und deren relativer Einfluss durch die jeweiligen „Parameter“ abgebildet wird. Da sind das stratosphärische Ozon, der Wasserdampf durch CH4, der Albedo-Effekt durch Wolken, die langlebigen Kondensstreifen und noch einige andere Kandidaten, die alle in die Energiebilanz des Planeten eingreifen (hier nachzulesen https://think-again.org/product/grun-und-dumm/).

Ein mathematisches Modell dafür wird eine recht komplizierte Maschine, an der viele Schrauben sind – die Parameter –, an denen wir so lange drehen, bis die Maschine das tut, was wir möchten.

 

Wunschdenken

Hört sich alles logisch an, wir werden aber sehen, dass das Drehen an den Schräubchen, welche die Wirklichkeit abbilden, vertrackt ist. Drehen wir die eine vor, dann muss die andere zurückgedreht werden, etc. Und je mehr Schräubchen an der Maschine, desto willkürlicher kann man sie einstellen, um ein gewünschtes Ergebnis zu bekommen.

In der Wissenschaft unterscheidet man experimentelle und theoretische Physik. Erstere beschäftigt sich damit, im Labor gemessene Daten den Gleichungen gegenüberzustellen, die von Theoretikern ersonnenen wurden. Mathematische Modelle sind hier das alltägliche Werkzeug. Man malt eine Kurve mit den Messwerten und vergleicht sie mit der Kurve der theoretischen Berechnungen. Dann „schraubt“ man an den Parametern, bis die beiden Kurven möglichst gleich sind.

 

Ein Elefant mit vier Schrauben

Enrico Fermi, der vermutlich größte Experimentalphysiker aller Zeiten, erklärte seinen Studenten, dass Modelle nur ganz wenige Stellschrauben haben dürfen. Er verbildlichte das mit den Worten: „Gib mir ein Modell mit drei Schrauben, und ich zeichne dir eine Kurve, die aussieht wie ein Elefant; und mit vier Schrauben wedelt der mit dem Schwanz.“

Willkommen in der Welt der Klimaforscher, die mit mega-komplexen Modellen und riesigen Computern so lange an den Schräubchen drehen, bis das rauskommt, was Politik und Geldgeber wünschen. Da wedelt der Elefant dann nicht nur mit dem Schwanz, sondern der Schwanz mit dem Elefanten, falls das gewünscht wird.

Das ganze Modellieren funktioniert also nur, wenn der Wissenschaftler unvoreingenommen ist, denn Wissenschaft ist eine Funktion der absichtslosen Wahrheit. Diese Neutralität aber ist dank der Einmischung von Politik in die Wissenschaft verloren gegangen; Corona und Klima sind nur die zwei auffallendsten Beispiele dafür.

 

Computermodell der Macht

Und nun zu einem Phänomen, zu dem wir mehr als genug Erfahrung haben, um ein zuverlässiges Computermodell zu bauen: Es ist das Phänomen der Macht. Hier sind Parameter und intrinsische Logik gut bekannt, und die Dynamik wird präzise durch die eingangs erwähnte Exponentialfunktion beschrieben.

Die Geschichte zeigt, dass je mächtiger eine Person ist, desto größer wird ihr Verlangen nach noch mehr Macht. Und da Macht nicht vergeben wird, sondern genommen, so hat der Mächtige eine sehr gute Position: Er kann sich ja nehmen, was er will.

Betrachten Sie herausragende historische Figuren und Sie werden sehen, wie sich deren Macht alle drei oder fünf Jahre „verdoppelt“ hat. Dieses grenzenlose Wachstum konnte dann nur durch eine Katastrophe gestoppt werden – wie etwa Waterloo.

Deshalb muss das exponentielle Wachstum der Macht, wenn schon unvermeidlich, so doch zeitlich begrenzt werden; etwa auf zwei Amtsperioden. Diese Randbedingung, ein wesentlicher Bestandteil der Verfassung der USA, hat dafür gesorgt, dass es dort seit 1776 nie zu einem „Meltdown“ der Demokratie kam. Niemals konnte ein machtbesessener Präsident so willkürlich in das Schicksal von Millionen eingreifen, wie das im Europa der vergangenen 250 Jahre die Regel war.

 

Ein Gedankenexperiment

Aber nicht nur in der Geschichte, auch in der Gegenwart gibt es Fälle von grenzenloser Macht. Erdogan, Putin, Zuckerberg sind Namen, die uns da sofort einfallen; ja, und in Deutschland regiert die „mächtigsten Frau der Welt“. In 15 Jahren hat ihre Macht exponentiell zugenommen und im Februar 2020, mit dem Absetzen des gewählten Thüringer Ministerpräsidenten, eine Höchstmarke erreicht.

Lassen Sie uns, in einem Gedankenexperiment – Gedanken sind bekanntlich frei – ein mathematisches Modell für die politische Zukunft Deutschlands entwerfen. Die Exponentialfunktion lässt ja ein noch stärkeres Anwachsen von Merkels Macht für die nächsten Jahre erwarten. Was wird geschehen?

Sie wird keine Welle der Beliebtheit verstreichen lassen, ohne daraus Kapital zu schlagen. Ihr aktuelles „Corona High“ wird sie nutzen, indem sie vor Ende 2020 Neuwahlen organisiert – mit ihr selbst als einziger Kandidatin. Eine schwarz/rot/rote oder schwarz/rot/grüne Koalition bringt es dann auf eine 2/3-Mehrheit.

 

Eine neue Fahne

Es wird neue Ministerien geben, reichlich besetzt mit Expertinnen sozialistischer Prägung: Eines für Faktensicherung, ein anderes für Demokratie, mit angehängten „NGOs“. Regierungskritischen Zeitungen und Blogs wird das Leben durch bürokratische Schikanen unmöglich gemacht. Der Bundestag bleibt zwar noch bestehen, zur Arbeitsplatzbeschaffung für hilfreiche Persönlichkeiten, hat aber keine Funktion mehr.

Ohne parlamentarische Opposition, ohne kritische Medien kann endlich praktiziert werden, was lange angestrebt war: Es wird durchregiert. Die Verfassung wird nur respektiert, falls sie der großen Transformation nicht im Wege steht, ansonsten wird sie angepasst. Die Demokratie in Deutschland hat damit den „Tipping Point“ überwunden und es geht vorwärts – und abwärts – in die sozialistische Vergangenheit. Die neuen strategischen Partner werden Türkei, Iran und Russland sein; Polen, England und USA bleiben Feindstaaten. Und die verhasste schwarz-rot-goldene Fahne wird endlich ersetzt durch ein Banner mit sozialistisch-ökologischen Symbolen.

Soweit also ein mathematisches Gedankenexperiment in Sachen Exponentialfunktion. Es hat keinen Bezug zur Realität, denn Frau Merkel hat ihr Ausscheiden aus der Politik bereits angekündigt, und nur ein Schelm würde an ihren Worten zweifeln.

 

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 




Kann Wasserstoff das Energieproblem lösen?

Wie ist der Einsatz des Wasserstoffs anstelle bisheriger fossiler Energiequellen zu bewerten? Sind die wissenschaftlichen, technischen und strukturellen Voraussetzungen dafür gegeben? Wie steht es um die ökonomischen Gegebenheiten? Die Meinungen dazu gehen weit auseinander.

 

Politische Pläne

Auf Einladung der Bundesminister für Wirtschaft, Verkehr und Entwicklung wurde auf einem Kongress Ende 2019 die zukünftige Rolle von Wasserstoff in der Energiewende und für den Klimaschutz auf breiter Basis diskutiert [0]. Bundeswirtschaftsminister, Peter Altmaier, sieht „in den gasförmigen Energieträgern, vor allem in Wasserstoff einen Schlüsselrohstoff für eine langfristig erfolgreiche Energiewende“.

Die Bundesrepublik Deutschland, Nordrhein-Westfalen und die Niederlande haben am 29.1.2020 eine Machbarkeitsstudie über die Schaffung einer transnationalen Wertschöpfungskette für „grünen“ Wasserstoff von der Nordsee bis hin zu industriellen Clustern im Grenzgebiet der Niederlande und Nordrhein-Westfalen in Auftrag gegeben[1]. „Grüner“ Wasserstoff ist Wasserstoff, der mittels regenerativer Energie gewonnen wurde.

„Ziel des Projekts ist es, die Durchführbarkeit von transnationalen Business Cases mit grünem Wasserstoff im Gebiet der Niederlande und Nordrhein-Westfalen zu untersuchen. Dabei liegt der Schwerpunkt auf der Erschließung des Potenzials für eine Verringerung der Treibhausgasemissionen und der Steigerung des Einsatzes erneuerbarer Energien im Industriesektor durch die Produktion, den Transport und den industriellen Einsatz von grünem Wasserstoff.“ Aus Sicht der Bundesregierung sei „nur CO2-freier, also grüner Wasserstoff auf Dauer nachhaltig“.

Überdies will Bundeswirtschaftsminister Peter Altmaier die „Wasserstoff-Technik für den Einsatz in vielen Sektoren fördern und dafür 1,4 Milliarden Euro für Forschung und Entwicklung bis 2026 im Rahmen des Nationalen Innovationsprogrammes Wasserstoff- und Brennstoffzellentechnologie (NIP) vergeben.“

Angaben zum Wasserstoff (H)

Wasserstoff ist auf der Erde hauptsächlich in Form chemischer Verbindungen (Wasser, Säuren, Kohlenwasserstoffen und anderen organischen Verbindungen) in nahezu unbegrenzten Mengen vorhanden. In Reinform tritt Wasserstoff auf der Erde nur in molekularer Form als H2 auf. Das farb- und geruchslose Gas hat ein spezifisches Gewicht von 0,0899 g/l. Wasserstoff ist nicht toxisch und verursacht bei Verbrennung keine Umweltschäden, ist insofern umweltneutral. Seine Energiedichte ist vergleichsweise gering: Wasserstoff hat bei 26 0C und 1 bar einen Energiegehalt von 3 kWh/m3, im Vergleich dazu Benzin 9,2 x 103 kWh/m3.

Die Wasserstoff-Herstellung ist zwar aufwendig, somit kostenintensiv aber technisch gut erprobt. Die am weitesten entwickelten Verfahren sind das Reformierungsverfahren [2] und die Wasser-Elektrolyse. Zu beachten: Zur Herstellung von einem Kilogramm Wasserstoff durch Elektrolyse werden 9 kg Wasser sowie (einschließlich Verflüssigung, Transport, Lagerung und Verteilung) etwa 100 kWh Strom benötigt [7].

Eine wesentliche Eigenschaft des Wasserstoffs ist aufgrund seiner geringen atomaren Größe seine Diffusion durch Festkörper, mit anderen Worten, Wasserstoff lässt sich nur unter ständigem Verlust einsperren. Der physikalische Vorgang der Diffusion wird in [6] erläutert.

Wasserstoff hat ohne Frage bereits einen breiten Anwendungsbereich. Er dient als bedeutender Ausgangsstoff zur Herstellung von Ammoniak (Haber-Bosch-Verfahren), von Salzsäure, Methanol, Anilin, um nur einige Beispiele zu nennen. Wasserstoff wird als Schweißgas eingesetzt und in der Metallurgie benötigt man ihn als Reduktionsmittel zur Gewinnung von Metallen. Infolge seiner hohen Wärmekapazität wird er auch als Kühlmittel verwendet.

Wasserstoff ist in begrenztem Maße bei Antriebsmotoren und bei Brennstoffzellen im Einsatz. Beide Anwendungsgebiete befinden sich mehr oder weniger noch in der Erprobungsphase.

Was sagen die Wasserstoff-Befürworter?

Eine faszinierende Idee: Beim Einsatz von Wasserstoff zum Beispiel in Antriebsmotoren entsteht aus Wasserstoff und Luft ohne Ausstoß von Treibhausgasen nur sauberer Wasserdampf. Eine brillante ökologische Bilanz.

Der Bundesrat [3] sieht in einem „umfassenden Aufbau einer Wasserstoff-Wirtschaft auf der Basis erneuerbarer Energien den grünen Wasserstoff als Wegbereiter für die Umsetzung der Klimaziele. Aus erneuerbaren Energien erzeugter Wasserstoff bietet die Möglichkeit, die Defossilierung (Anm.: Vermeidung von Kohle, Öl, Erdgas) umzusetzen, die einer direkten Elektrifizierung aus technischen oder ökonomischen Gründen nur schwer zugänglich sind. „Grüner“ Wasserstoff kann dafür direkt oder weiterverarbeitet in Form von synthetischem Gas (zum Beispiel Methan) oder synthetischem flüssigen Kraftstoff (zum Beispiel Methanol) genutzt werden. Als Bindeglied zwischen Strom- und Gassektor bietet „grüner“ Wasserstoff zudem die Möglichkeit, künftig zwei Wege zum Transport von erneuerbaren Energien zu nutzen. Auf diese Weise kann das erhebliche volkswirtschaftliche Kapital der Gastransport- und Gasspeicherinfrastruktur effizient in den Wandel der Energieerzeugung eingebunden werden.“

Auf Anfrage erläuterte die Bundesregierung: „Die Auswertung bisheriger Förderprojekte zum Wasserstoff-Verbrennungsmotor zeigt, dass dieser mit den konventionellen Antrieben konkurrenzfähig sein kann. Hinsichtlich der Energieeffizienz und einer potenziellen Effizienzsteigerung zeigte der Wasserstoff-Verbrennungsmotor im Vergleich zur Brennstoffzellen- Technologie schlechtere Eigenschaften. Deshalb liegt der Fokus des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) bei der Förderung im Nationalen Innovationsprogramm Wasserstoff- und Brennstoffzellentechnologie (NIP) auf Brennstoffzellenanwendungen mit dem Ziel, hier Kostenreduktionen und Leistungsverbesserungen zu erzielen“ [4].

In einer ausführlichen Studie informiert Shell in Zusammenarbeit mit dem Wuppertaler Institut über den Stand der Wasserstoff-Gewinnung und über Anwendungstechnologien sowie über das Potenzial und Perspektiven des Wasserstoffs als Energieträger [5]. Neben stofflichen und nicht-automobilen Anwendungen stehen der Einsatz von Wasserstoff im Straßenverkehr und hier speziell in Brennstoffzellen im Fokus. Ein klares Bekenntnis zum Wasserstoff im Sinne der Lösung des Energieproblems wird vermieden, vielmehr wird gesagt, dass „Wasserstoff als Energieträger und Brennstoffzelle als Energiewandler einen wichtigen Beitrag zur Energiewende und damit zur Erreichung des globalen 2 0C-Klimaziel leisten können.“ Trotz „signifikanter“ Fortschritte in der Anwendungstechnologie seien für einen „breiten kommerziellen Einsatz im globalen Energiesystem“ allerdings weitere Förderung seitens des Staates notwendig.

Kostenberechnungen der Wasserstofferzeugung werden nicht angestellt. Hierzu wird auf spezielle Publikationen verwiesen (Abb. 1). In der Abbildung wird zwischen zentraler und dezentraler Erzeugung und drei Erzeugungsarten unterschieden.  Die geringeren Kosten der

Abb. 1: Erzeugungskosten von Wasserstoff [5]

Wasserstoff-Erzeugung fallen bei der zentralen Erdgasreformierung an (Mittelwert hier 1,4 €/kg). Deutlich höher liegen mit 6 bis 8 €/kg die Kosten bei elektrolytischer Erzeugung.

Was sagen die Wasserstoff-Skeptiker?

Die relativ günstige Gewinnung von Wasserstoff aus Erdgas (siehe obige Abbildung) ist kein nachhaltiger Weg, denn nach Versiegen der Erdgasquellen wird Wasserstoff nur noch durch die kostenintensive elektrolytische Spaltung von Wasser zu erzeugen sein. Dafür wird Gleichstrom benötigt und zwar weitaus mehr, als selbst mit fortschrittlichster Technik jemals aus dem erzeugten Brenngas zurückgewonnen werden kann. Bei der Elektrolyse wird elektrische Energie in chemische Energie umgewandelt. Wasserstoff ist also keine Energiequelle, sondern lediglich ein Sekundärenergieträger, vergleichbar mit dem Wasser in einer Zentralheizung [7].

Jede Stufe der Energiekette, von der Erzeugung des Wasserstoffs bis zu seiner Nutzung, ist mit Energieverlusten und Energieaufwand verbunden, argumentiert Bossel [7], der den Wasserstoff-Einsatz in seiner Substitutionsfunktion sehr kritisch unter die Lupe nimmt.  Bei Wasserstoff seien die Energieverluste jedoch so groß, dass dem Wasserstoffverbraucher hinter einer effizienten Brennstoffzelle nur noch ein Viertel der elektrischen Primärenergie zur Verfügung steht. Nur ein Viertel des erneuerbaren Stroms wird genutzt, während drei Viertel ungenutzt verloren gehen. Diese Verluste sind physikalisch bedingt und können auch durch zusätzliche Forschungen nicht wesentlich verringert werden (vergleiche Abb. 2).

Abb. 2: Die Wirkungsgradverluste bei der Wasserstoffwirtschaft (Bossel et.al., 2003) [7]

Zum Vergleich: Zwischen Ölquelle und Tankstelle werden 8 bis 12 % der flüssigen Energie für Förderung, Raffinierung und Transport benötigt. Allein die Kompression des Wasserstoffs auf 200 bar verschlingt etwa 9 % des Energieinhaltes.

Da lediglich 50 % des für die Elektrolyse benötigten Strom beim Verbraucher als nutzbarer Wasserstoff ankommt, dürfte die im Wasserstoffgas enthaltene Energie mindestens doppelt so teuer sein wie der Strom aus der Steckdose.

Im gegenwärtigen Wettbewerb mit Erdgas und Benzin kann Wasserstoff nicht mithalten. Bei 200 bar beträgt der Energieinhalt in einem Liter Wasserstoff 0,722 kWh, in gleicher Menge Erdgas 2,22 kWh und einem Liter Benzin 9,39 kWh.

„Die Tankreichweite in einem Brennstoffzellen-Auto spricht gegen Wasserstoff als Energieträger“, schreibt Peters [8]. So könne beispielsweise der Wasserstoff-Toyot Mirai mit einem Tankvolumen von riesigen 240 Litern bei 700 bar gerade mal 5 kg Wasserstoff speichern. Dieser Energiegehalt entspricht etwa 20 Liter Dieselkraftstoff, was für etwa 300 km Reichweite ausreicht.

„Grüner“ Wasserstoff soll, so ist zu hören, mit „überschüssigem“ Strom aus Solar- und Windenergieanlagen erzeugt werden. Da es ein Zuviel an Wind- und Solarstrom nur an wenigen Stunden verteilt über das Jahr gibt, müssten die Elektrolyseanlagen für den Betrieb an diesen wenigen Stunden ausgelegt sein. Mit Sicherheit wäre deren Betrieb nicht wirtschaftlich. Oder, und das wäre geradezu grotesk, müssten, um einen wirtschaftlichen Betrieb zu ermöglichen, eigens dafür Ökoanlagen bereitgestellt werden, wobei deren preiswerter Strom für die Erzeugung teuren Wasserstoffs verwendet wird.

Sicherheit

Eine charakteristische Eigenschaft des Wasserstoffs ist seine hervorragende Brennbarkeit und zusammen mit Sauerstoff die Bildung des explosiven Knallgases. Die maximale Flammengeschwindigkeit von Wasserstoff ist zirka acht Mal größer als die der kohlenwasserstoff-basierten Gase. Dies erklärt die Tendenz zu hohen Brenngeschwindigkeiten und auch die möglichen Umschläge in Detonationen. Aufgrund dieser Eigenschaften erfordert der Umgang mit Wasserstoff größte Sorgfalt.

Fazit

Die künftige Bedeutung des Wasserstoffs im Zuge der Energiewende wird von Bossel [7] nachvollziehbar beschrieben.„Der Übergang von der heutigen, vom Erdöl dominierten Energiewirtschaft zu einer nachhaltigen, von regenerativ erzeugtem Strom geprägten, basiert also nicht auf einer einfachen Substitution fossiler Energieträger durch synthetischen Wasserstoff. Komplexe Veränderungen müssen in allen Bereichen der Energietechnik bedacht werden: Erzeugung, Verteilung, Speicherung und Nutzung sind in jedem Fall zu berücksichtigen. Die Energiewirtschaft wird quasi auf den Kopf gestellt. Während chemische Energieträger heute die Ausgangsbasis bilden, wird es in Zukunft Strom aus erneuerbaren Quellen sein. Heute ist Elektrizität die sekundäre Energieform, morgen ist es der künstliche erzeugte Energieträger Wasserstoff. Während heute Erdgas und Erdöl preisbestimmend sind, wird es in Zukunft Strom aus regenerativen Quellen sein. Strom wird zur Leitwährung im Energiemarkt. Der aus Strom gewonnene Wasserstoff wird deshalb immer teurer sein als die regenerativ erzeugte Elektrizität. Daran lässt sich nicht rütteln, weder mit politischen Entscheidungen noch mit aufwändigen Entwicklungsprogrammen.“

Die Nachvollziehbarkeit dieses Weges gilt unter der Voraussetzung eines dauerhaften Verzichts auf die Nutzung der Kernenergie. Der zurzeit in der Entwicklung befindliche „Small Modular Reactor“ (SMR) stößt weltweit auf großes Interesse. Dieser Reaktortyp von vergleichsweise kleiner Leistung und mit inhärenter Sicherheitstechnik könnte als Strom- und Wärmelieferant vollkommen neue Anwendungsgebiete aufzeigen, dem sich auch Deutschland zur Sicherung seiner wirtschaftlichen und industriellen Leistungsfähigkeit auf Dauer nicht entziehen kann.

Abschließend nur ein dem Artikel von Bossel [7] entnommenes Beispiel dafür, was uns erwartet, wenn Wasserstoff durch Elektrolyse erzeugt wird:

„Am Frankfurter Flughafen werden täglich 50 Jumbo-Jets mit je 130 Tonnen (160 m3) Flugbenzin befüllt. Die gleiche Energiemenge steckt in 50 Tonnen (715 m3) flüssigem Wasserstoff. Zur Betankung aller Jumbos mit Wasserstoff müssten täglich 2.500 Tonnen Flüssigwasserstoff bereitgestellt werden, für dessen Herstellung man 22.500 m3 sauberes Wasser und die elektrische Leistung von acht Kraftwerken von je 1 GW benötigt (zum Vergleich: Das AKW Biblis hat eine Leistung von 1,3 GW). Für die Versorgung aller Flugzeuge des Flughafens mit Wasserstoff müsste man den Wasserverbrauch der Stadt Frankfurt und die Energie von mindestens 25 Großkraftwerken einsetzen.“

 

[0] https://www.bmwi.de/Redaktion/DE/Downloads/J-L/kurzpapier-wasserstoff.pdf?__blob=publicationFile&v=4

 

[1] https://www.bmwi.de/Redaktion/DE/Pressemitteilungen/2020/20200129-auftakt-des-hy3-projekts.html

 

[2] https://de.wikipedia.org/wiki/Wasserstoffherstellung#Dampfreformierung

 

[3] Bundesrat Drucksache 450/19 (Beschluss), 08.11.2019

 

[4] Deutscher Bundestag Drucksache 19/12582, 22.08.2019

 

[5] shell-wasserstoff-studie-2017, „Energie der Zukunft?“, Nachhaltige Mobilität durch Brennstoffzelle und H2

 

[6] https://mediatum.ub.tum.de/doc/958296/958296.pdf

 

[7] http://leibniz-institut.de/archiv/bossel_16_12_10.pdf

 

[8] https://peterscoll.de/?page_id=54, Björn Peters, Die Energiefrage #68, 15.11.2019

 

 

26.2.2020

 

 

 

 




Die neue Wasserstoffstrategie – Nicht nur Käse aus Holland

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Bundeswirtschaftsminister Peter Altmeier mit Vorstellung der „Wasserstoffstrategie“. Bild Screenshot Video des Bundesministerium für Wirtschaft und Energie

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.

 

Der Beitrag erschien zuerst am 20.3.20 hier bei EIKE

 

 




Covid-19 und die Illusion von der Wissensgesellschaft

Yogeshwar wollte damit wohl sagen, dass die Menschen, von wochenlanger Einschränkung ihrer Freiheitsrechte frustriert und ermüdet, es nun wieder vorzogen, sicheres wissenschaftliches Wissen zu verdrängen, um zum gewohnten Trott ihres Alltagslebens zurückkehren zu können und sich dabei wieder von ihrem eigenen Hausverstand leiten zu lassen. Wie Massendemonstrationen gegen die „Hygiene-Diktatur“ in etlichen deutschen Großstädten zeigen, entwickelte sich bei einem Teil der Bevölkerung Widerstandsgeist. Der Wissenschaftsjournalist sieht seine Aufgabe offenbar darin, das lesende und fernsehende Publikum wieder zum rechten Glauben an die Leistungsfähigkeit der wissenschaftlichen Methode zurückzuführen.

Hinter dieser Einschätzung versteckt sich meines Erachtens aber ein grundsätzlicher Irrtum, der auf der Verwechslung von wissenschaftlichem Wissen und szientistischer Ideologie beruht. Zwar glaubt heute kaum noch jemand, die wissenschaftliche Forschung könne durch zähe Anstrengung irgendwann zum gottgleichen Allwissen beziehungsweise ganzheitlichen Verständnis natürlicher und/oder gesellschaftlicher Prozesse gelangen. Doch vermuten wohl immer noch viel zu viele, man könne sich der Wahrheit zumindest bis auf 90 Prozent annähern. Oft fehlen uns für das umfassende Verständnis komplexer Sachverhalte aber über 90 Prozent der nötigen Informationen. Das gilt nach Aussage der darauf spezialisierten Biologen schon für einzellige Organismen und noch in weit größerem Maße für ganze Ökosysteme und für menschliche Individuen und ganze Gesellschaften. Dennoch trauen gerade Menschen mit formal höherer Bildung den zumeist staatlich besoldeten Wissenschaftlern zu, mithilfe deterministischer Computersimulationsmodelle, d.h. mit dem Durchrechnen von Differential- bzw. Differenzengleichungen die wesentlichen Ursachen der Entwicklung komplexer Systeme ausmachen zu können. Nur wer glaubt, bereits die wesentlichen Faktoren und Zusammenhänge verstanden zu haben, kann von Computersimulationen realistische Prognosen erwarten. Es handelt sich dabei aber, wie leicht gezeigt werden kann, um nichts anderes als um das, was Wirtschafts-Nobelpreisträger Friedrich A. Hayek „Anmaßung von Wissen“ genannt hat.

Ich hatte selbst in Sachen Modellierung ein Schlüsselerlebnis. Als ich vor Jahren beim deutschen Magazin „Bild der Wissenschaft“ einen Übersichtsartikel über das Pro und Contra von Tierversuchen  einreichte, wollte der zuständige Redakteur nicht verstehen, warum man Chemikalientests an Tieren nicht vollständig durch Tests an Zellkulturen und durch Computersimulationen ersetzen kann. Er ging offenbar davon aus, dass solche Modelle alle wesentlichen Zusammenhänge abbilden konnten. Um ihn vom Umfang unseres Nichtwissens zu überzeugen, argumentierte ich mit Karl R. Popper und anderen Wissenschaftsphilosophen. Danach können Forscher aufgrund von Beobachtung und Experiment nur zu mehr oder weniger vorläufigen Hypothesen, aber nicht zu definitiven Erklärungen von Naturzusammenhängen gelangen. Aber den Namen Popper hatte der junge Mann noch nie vernommen. Mein Artikel wurde schließlich zwar veröffentlicht, aber vom Cover genommen und ins Innere des Heftes verbannt, obwohl er vom Umfang her der Hauptartikel der Ausgabe war.

Die Anmaßung von Wissen in Form mathematischer Modelle zeigte sich bislang hauptsächlich in den vergleichsweise primitiven Computersimulationen auf malthusianistischer Grundlage, die der 1972 erschienen Studie „Die Grenzen des Wachstums“ zugrunde liegen, die vom „Club of Rome“ in Auftrag gegeben worden war. Danach sollte die Weltwirtschaft schon um die Jahrtausendwende wegen der Erschöpfung von Ressourcen zusammengebrochen sein. Die aktuelle Ölschwemme auf dem Weltmarkt zeigt, wie weit von der Realität diese Modelle entfernt waren. Weniger augenfällig ist das bei den scheinbar erheblich komplexeren Klimamodellen, mit denen die so genannte Klimapolitik zur Abwendung einer der Menschheit angeblich drohenden „Klimakatastrophe“ begründet wird. Das Vertrauen in diese Modelle ist inzwischen so groß, dass ihnen widersprechende Messdaten und Alltagserfahrungen bei maßgeblichen Massenmedien und den ihnen ausgelieferten Bevölkerungsteilen der selektiven Wahrnehmung zum Opfer fallen. Kaum jemand wagt es noch zu bezweifeln, dass die Freisetzung von Kohlenstoffdioxid durch menschliche Aktivitäten die Hauptursache der Erderwärmung ist. Dabei gibt es für die monokausale Argumentation und daher nur scheinbar komplexe Struktur dieser Modelle keine empirischen Belege. Das unrühmliche Ende des Biosphere-II-Experiments in Arizona (hier) hätte schon in den 1990er Jahren zeigen können, dass die Natur nicht so funktioniert, wie die Grünen sich das vorstellen. Doch wer sich heute die akademische Freiheit nimmt, die Erzählung vom schädlichen Einfluss der industriellen Revolution auf Umwelt und Klima durch Hinweis auf eigene Beobachtungen kritisch zu hinterfragen, der riskiert, wie das Beispiel der Auseinandersetzung des australischen Meeresforschers Peter Ridd zeigt, inzwischen seine berufliche Zukunft.

Nur auf dem Hintergrund der verbreiteten Modell-Gläubigkeit bei den Regierenden und den ihnen nahe stehenden Medien wird verständlich, wie es unter Hinweis auf „die“ Wissenschaft zur politischen Entscheidung kam, der Ausbreitung des neuen Virus SARS-CoV-2 mit der dümmsten aller denkbaren Strategien, nämlich dem kompletten Lockdown des Kultur- und Wirtschaftslebens zu begegnen, anstatt lediglich die an Covid-19 Erkrankten zu isolieren und empfindliche Bevölkerungsgruppen besonders zu schützen. Eine zentrale Rolle spielte dabei das epidemiologische Modell des Teams um Neil Ferguson vom renommierten Londoner Imperial College. Dieses prognostizierte im März 2020, die Covid-19-Epidemie würde in Großbritannien höchstwahrscheinlich eine halbe Million und in Amerika über zwei Millionen Todesopfer  fordern. Wörtlich schrieb die New York Times: „With ties to the World Health Organization and a team of 50 scientists, led by a prominent epidemiologist, Neil Ferguson, Imperial is treated as a sort of gold standard, its mathematical models feeding directly into government policies.“ Der britische Premierminister Boris Johnson revidierte daraufhin die von ihm ursprünglich favorisierte Option einer kontrollierten Durchseuchung der Bevölkerung zugunsten eines strengen Lockdowns nach chinesischem Vorbild – mit unabsehbaren wirtschaftlichen und sozialen Folgekosten. Die meisten anderen europäischen Regierungen, mit Ausnahme der schwedischen, taten es ihm gleich – soweit sie nicht ohnehin bereits von sich aus dem Beispiel der chinesischen Diktatur gefolgt waren.

Ausschlaggebend für die Angst erzeugenden Projektionen des Ferguson-Modells war die Annahme einer unrealistisch hohen Infektionsrate von 80 Prozent und dessen deterministische Struktur, die keinen Platz ließ für intelligente Anpassungsmaßnahmen der von der Epidemie bedrohten Menschen. Obendrein verwendete das Team von Neil Ferguson ein total veraltetes Computerprogramm.

Das hielt die „New York Times“ nicht davon ab, es zum „gold standard“ der epidemiologischen Modellierung zu erklären. Dabei hatte Ferguson bereits eine lange Liste von haarsträubenden Fehlprognosen auf seinem Register: Im Jahre 2001 wurden auf seinen Rat hin in England vorsorglich sechs Millionen Schafe gekeult, um die Ausbreitung der Maul- und Klauenseuche zu stoppen. Kostenpunkt: Sechs Milliarden Pfund Sterling. Ein Jahr später sagte Ferguson den Tod von 150.000 Personen durch BSE (Creutzfeldt-Jacob-Krankheit) voraus. Es starben aber in GB gerade einmal 177 Menschen daran. Im Jahre 2005 prognostizierte Ferguson sage und schreibe 200 Millionen Todesopfer durch die Vogelgrippe. Es starben aber weltweit nur 282 Personen. Und im Jahre 2009 sagte er den Tod von 65.000 Briten durch die Schweinegrippe voraus. Es starben nur 457 Personen. Am Ende verlor Ferguson seinen Job nicht wegen seiner betrügerischen Fehlprognosen, sondern weil er während der von ihm selbst propagierten Kontaktsperre mit seiner Geliebten, einer verheirateten Frau mit zwei Kindern, erwischt wurde.

Auf die herrschende szientistische Ideologie ist auch der bislang wohl größte Wissenschaftsskandal der herbeigeredeten Coronakrise zurückzuführen. Es handelt sich dabei um die offenbar orchestrierte Lobby-Kampagne großer Pharma-Konzerne gegen den Einsatz des seit über sieben Jahrzehnten bewährten und obendrein sehr preiswerten Anti-Malaria- und Anti-Rheuma-Mittels Chloroquin (CQ) beziehungsweise dessen verträglichere Abkömmlinge Hydroxychloroquin (HCQ) und Chloroquinphosphat in Kombination mit dem ebenfalls zum Klassiker gewordenen Antibiotikum Azithromycin (AZ). In Frankreich verordnete Prof. Didier Raoult seinen positiv auf Covid-19 getesteten Patienten im Marseiller Hospital „La Timone“ in der Anfangsphase der Krankheit diese beiden Medikamente. Er hat nie behauptet, dass diese für ganz andere Anwendungen gedachten Medikamente allein in der Lage sind, die bereits fortgeschrittene Erkrankung zu stoppen. Vielmehr sollten sie einer Verschlimmerung der Virusinfektion vorbeugen, gehören also eher in die Kategorie Prophylaxe. Er berief sich dabei auf die guten Erfahrungen seines chinesischen Kollegen Zhong Nanshan und auf den Hippokratischen Eid, der ihm gebiete, Patienten beim Fehlen einer anerkannten Therapie auch mit unkonventionellen Methoden zu helfen. Raoult konnte sich mit seinem empirischen, vom gesunden Menschenverstand geleiteten Vorgehen auf seine Jahrzehnte lange Erfahrung als Infektiologe und seine weltweite Anerkennung als führender Mikrobiologe (dessen Namen einige bekannte Krankheitserreger tragen) berufen, was sich nicht zuletzt im Science Citations-Index niederschlug. Die zunächst bei über 1.000  und schließlich bei fast 4.000 Patienten erzielten Resultate  gaben Didier Raoult am Ende recht. Kaum irgendwo starben so wenige Patienten an Covid-19 wie in Marseille (0,9 Prozent). Nur bei 25 Patienten (0,67 Prozent) wurde die befürchtete Herzrhythmus-Störung (Verlängerung des Q-T-Intervalls) festgestellt. Nur in drei Fällen führte diese zum Abbruch der Behandlung.

Doch damit fand er bei den Mandarinen des staatlichen französischen Gesundheitswesens keine Anerkennung. Im Gegenteil: Sie mokierten sich darüber, dass Raoult in Südfrankreich vom einfachen Volk inzwischen wie ein Messias verehrt wird, und warfen ihm vor, sein Vorgehen entspreche nicht dem „Gold Standard“ klinischer Studien. Als solcher gelten angeblich nur randomisierte Doppel-Blind-Studien, bei denen ein Teil der Probanden ohne ihr Wissen nur mit Placebos behandelt wird. Bei potenziell lebensbedrohenden Erkrankungen wie Covid-19 sei es aber ethisch nicht vertretbar, Patienten mit Placebos abzuspeisen, entgegnete Didier Raoult. Medizin erschöpft sich eben nicht in der Anwendung starrer von „der“ Wissenschaft abgeleiteter Regeln, sondern ist bekanntlich auch eine Kunst, die sich auf jahrzehntelange Erfahrung und Intuition stützt. Sie hat es also weniger mit Gewissheit, sondern mehr mit Wahrscheinlichkeiten zu tun. Didier Raoult kann sich damit immerhin auf Paul Feyerabends Polemik wider den Methodenzwang  berufen.

Diese vom gesunden Menschenverstand inspirierte Haltung stieß offenbar in der französischen Gesundheitsbürokratie auf Missfallen. Yves Lévy, der Mann der früheren Gesundheitsministerin Agnès Buzyn, versuchte als Direktor des nationalen medizinischen Forschungs-Netzwerks INSERM Didier Raoult und seinem Institut Hospitalier Universitaire (IHU) Méditerranée das Leben schwer zu machen, indem er es nicht anerkannte. Seine Frau ließ zu Beginn dieses Jahres HCQ als gefährliche Substanz und damit verschreibungspflichtig einstufen, nachdem das Medikament, trotz einiger problematischer Nebenwirkungen bei Herz-Patienten, vor allem in warmen Ländern Jahrzehnte lang ohne Beanstandung in großen Mengen als Malaria-Prophylaktikum eingenommen worden war. Buzyns Amtsnachfolger Olivier Véran versuchte schließlich sogar in mehreren Anläufen, HCQ für die Behandlung von Covid-19-Patienten ganz zu verbieten.

Da kam die Veröffentlichung einer internationalen Metastudie im renommierten Magazin „The Lancet“ unter dem Titel „Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: A multinational registry analysis“  am 22. Mai 2020 offenbar wie gerufen. In dieser von Prof. Mandeep Mehra MD, Sapan S. Desai MD, Prof. Frank Ruschitzka MD und Amit N. Patel MD gezeichneten Publikation, die inzwischen zurückgezogen werden musste, geht es um die Analyse von anscheinend überwiegend aus Amerika, aber auch von anderen Kontinenten stammenden Patientendaten aus insgesamt 671 Kliniken, die nach Angaben von Sapan Desai elektronisch an das von ihm geleitete Chicagoer Start-up-Unternehmen Surgisphere übermittelt worden waren. So hätten die Heilungserfolge von fast 15.000 mit CQ oder HCQ behandelten Patienten mit Daten von 81.000 Patienten verglichen werden können, die anders behandelt wurden. Im Ergebnis Im Vergleich zur Kontrollgruppe wurde danach bei den mit HCQ (18 %), HCQ plus Makrolid-Antibiotikum (23,8 %), Chloroquin (16,4 %) und Chloroquin plus Makrolid (22,2 %) im Krankenhaus behandelten Patienten sogar eine erhöhte Mortalitätsrate wegen Herzrhythmusstörungen o.ä. festgestellt. Jedenfalls sei die Anwendung von Chloroquin und HCQ nicht von Vorteil.

Schon am 23. Mai kündigte Olivier Véran daraufhin über Twitter an, das zuständige Beratergremium HCSP werde sich mit der Aufhebung der provisorischen Zulassung von HCQ befassen. Am 27. Mai verbot Olivier Véran den Ärzten schließlich die Verschreibung von HCQ an Covid-19-Patienten. Schon am 25. Mai unterbrach die Weltgesundheitsorganisation WHO unter Hinweis auf die Veröffentlichung in „The Lancet“ teilweise ihre groß angelegte Studie SOLIDARITY . In Deutschland wurde jedoch entschieden, zwei ähnliche Studien mit etwa 3.000 Patienten fortzuführen, wie der Koordinator der beiden Studien, der Tübinger Professor Peter Kremsner gegenüber der „Ärzte-Zeitung“ erklärte. Eine dieser beiden Studien, die COMIHY-Studie konzentriert sich auf ambulant behandelte, also weniger schwer an Covid-19 erkrankte Patienten und hält sich auch mit der Dosierung an die Vorgaben von Prof. Didier Raoult, während die meisten übrigen Therapie-Experimente mit HCQ eine Überzahl schwerkranker Patienten einschlossen und obendrein mit Überdosen von HCQ arbeiteten. Auch Raoult selbst fuhr fort, von seiner autonomen Entscheidungsbefugnis als Arzt Gebrauch zu machen, wies jedoch darauf hin, dass es zu diesem Zeitpunkt zumindest in Marseille kaum noch Covid-19-Patienten gab.

In der Zwischenzeit hatte eine ganze Reihe international renommierter Kliniker und Statistiker , angeführt durch den Statistiker Dr. James Watson (aus Deutschland steht Prof. Dr. Frank Brunkhorst von der Jenaer Uni-Klinik auf der Liste) in einem Brief an die Autoren der Studie und an Richard Horton, den Herausgeber von „The Lancet“ öffentlich bezweifelt, dass bei der Datenauswertung der in „The Lancet“ veröffentlichten Metastudie von Mehra et al. alles mit rechten Dingen zugegangen ist. Unter anderem bemängelten die Wissenschaftler, dass die Herkunft der Daten wegen des Fehlens eines Codes nicht nachvollzogen werden kann. Man wisse also nicht, welche Kliniken Daten übermittelt haben und welche nicht. In Australien wurden für fünf Kliniken mehr Corona-Tote erfasst als im ganzen Land ermittelt worden waren. Als verwunderlich erschien den Kritikern auch die auffällig geringe Varianz des (verborgenen) statistischen Materials. Aus diesen und weiteren Gründen forderten die Experten die Offenlegung der Rohdaten und der Codes, mit deren Hilfe sie verarbeitet wurden. Dieser Bitte konnten Mehra et al. nicht nachkommen.

In Brasilien, dessen Präsident Jair Bolsonaro sich wie US-Präsident Trump nachdrücklich für die Verabreichung von HCQ einsetzte, versammelte der führende Chemiker Marcos Eberlin 300 weitere Top-Wissenschaftler, um den Artikel von Mehra et al. in „The Lancet“ zu zerpflücken und die Ergebnisse der Analyse in einem offenen Brief zu veröffentlichen. Die brasilianischen Kritiker der Veröffentlichung von Mehra et al. wiesen überdies nach, dass schwerkranken Patienten in der so genannten Manaus-Studie (veröffentlicht im JAMA hier) tödliche Dosen von CQ verabreicht worden war, um die Gefährlichkeit dieses Medikaments zu demonstrieren. Am Ende ihres offenen Briefes weisen die brasilianischen Wissenschaftler übrigens ausdrücklich darauf hin, dass sie sich nicht absolut gewiss sind, ob HCQ den Patienten hilft. Nur die Wahrscheinlichkeit spreche dafür. Die Justiz könne bei der Prüfung der Zulassung dieses Medikaments nur nach dem Grundsatz „In dubio pro reo“ verfahren.

(Leider gehen die Wissenschaftler nicht auf die bei Schwarzen, also gerade auch in Brasilien relativ häufige HCQ-Unverträglichkeit bei Glucose-6-Phosphat-Dehydrogenase (G6PD(H)-Mangel https://de.wikipedia.org/wiki/Glucose-6-phosphat-Dehydrogenase-Mangel ein. Durch diese ernsthafte Störung des Zuckerstoffwechsels werden die Zellmembranen, insbesondere die der roten Blutkörperchen, anfällig für oxidativen Stress durch HCQ. Das kann zur hämolytischen Anämie führen.)

Noch strenger ging ein anonymer, aber bekannter Blogger aus der Wissenschaftsszene  (Goldstein) mit den Autoren der in „The Lancet“ publizierten Studie ins Gericht. Er wies nach, dass die Studie auf Fake-Daten beruht und dass Surgisphere nichts anderes ist als eine unseriöse Briefkastenfirma, in der eine Porno-Darstellerin als leitende Angestellte untergekommen war. Weitere Statistik-Profis schlossen sich in anonymer Form dieser vernichtenden Kritik an, indem sie nachwiesen, dass Surgisphere zu tragbaren Kosten gar nicht an die in der Studie angeblich verwendeten klinischen Daten gelangt sein konnte. Schlag auf Schlag kamen dann über soziale Netzwerke im Internet weitere kompromittierende Tatsachen über die Chicagoer Firma und über Interessenskonflikte der Autoren ans Licht.

In Frankreich untersuchte der linke Soziologe Laurent Mucchielli mögliche Interessenskonflikte der Autoren des Lancet-Artikels und wies nach, dass Mandeep Mehra verschwiegen hatte, dass das Bostoner Brigham Hospital, an dem er arbeitete, vom Pharma-Konzern Gilead bezahlt wird, um das Virostatikum Remdesivir zu testen. Gilead hatte dieses Medikament entwickelt, um die in Zentralafrika ausgebrochene Ebola-Epidemie gewinnbringend zu bekämpfen. Doch diese Epidemie war von selbst erloschen, bevor das neue Medikament auf den Markt kam. Nun versucht Gilead offenbar, sein teures, aber noch kaum erprobtes Medikament in der Coronakrise loszuwerden, indem er mithilfe willfähriger Wissenschaftler und Medien das preiswerte Konkurrenz-Produkt HCQ mit allen Mitteln schlecht macht. Auch der an der Zürcher Uni-Klinik arbeitende Prof. Dr. Frank Ruschitzka forscht mit Geldern der US-Pharma-Konzerne Gilead und Abbott. Mit dem letztgenannten Konzern arbeitet auch Dr. Mandeep Mehra zusammen. Der an der University of Utah lehrende Mediziner Amit Patel gab zu, die beiden renommierten Professoren Mehra und Ruschitzka mit seinem Schwager Sapan Desai, dem Gründer von Surgisphere, bekanntgemacht und für die Unterzeichnung der gefakten Lancet-Veröffentlichung gewonnen zu haben. Er trennte sich kürzlich „im Einvernehmen“ von seiner Universität.

Anfang Juni 2020 gab es nach alledem kein Halten mehr. „The Lancet“ musste die Veröffentlichung der inkriminierten Studie zurückziehen. So endete (vorläufig) einer der größten Wissenschaftsskandale der letzten Jahrzehnte. In Frankreich spricht man von „Lancet Gate“ . Tausende von Ärzten und Angehörige von Covid-19-Opfern haben in Frankreich juristische Schritte gegen die (un)verantwortlichen Minister eingeleitet oder angekündigt. Aber vermutlich dürfte dieser Skandal noch sehr viel weiter reichende politische Konsequenzen haben.

Man erinnert sich daran, dass die Europäische Union im Rahmen des so genannten Lissabon-Prozesses einmal offiziell verkündet hat, innerhalb von einem Jahrzehnt zur dynamischsten Wissensgesellschaft der Welt werden zu wollen. Dahinter steht offenbar der u.a. auf Auguste Comte zurückgehende Anspruch, das angeblich im Mittelalter vorherrschende magische Denken durch eine wissenschaftliche Weltanschauung überwinden zu können. Es lässt sich aber leicht zeigen, dass gerade die durch deterministische Modelle begründete Politik in Verbindung mit postmoderner Werteverkehrung zur Renaissance des magischen Denkens führt. Marxisten bewegen sich ohnehin nur in Modellwelten. Beispiele dafür sind die Klimapolitik, die damit zusammenhängende „Energiewende“, die Öffnung der Grenzen für die unkontrollierte Masseneinwanderung aus nichteuropäischen Ländern und die Euro-Rettungspolitik der EZB. Es bedarf bei all diesen Politiken keiner höheren Mathematik, um zu erkennen, dass diese nicht an ihr Ziel gelangen können. Das gilt vermutlich auch für die szientistisch begründete und bürokratisierte Gesundheitspolitik Frankreichs.

Hinter dem Anspruch, im Namen „der“ Wissenschaft zu sprechen, stehen m.E. letztlich immer totalitäre Bestrebungen. Um Fehlentwicklungen wie „Lancet Gate“ zu vermeiden, gilt es, im Gesundheitswesen dem Pluralismus und vor allem dem gesunden Menschenverstand größere Chancen einzuräumen. Das darf aber nicht mit Zugeständnissen an wissenschaftsfeindliche Ideologien einhergehen. Man braucht mit der Bescheidenheit hinsichtlich der menschlichen Erkenntnisfähigkeit nicht so weit gehen wie Sokrates, dem die Aussage zugeschrieben wird: „Ich weiß, dass ich nichts weiß.“ Denn wir wissen, trotz unserer grundsätzlichen Beschränktheit, schon sehr viel über uns und unsere Umwelt und haben das für eine Vielzahl echter Verbesserungen der menschlichen Lebensqualität genutzt. Aber wir sollten m. E. nie vergessen, dass unser Wissen immer nur eine Insel in einem Ozean von Unwissen sein kann.