Warum die Wirksamkeit des Lockdowns wissenschaftlich nicht bewiesen ist
Seite 3: Die fragwürdigen Vorhersagen aus Modellierungsstudien
- Warum die Wirksamkeit des Lockdowns wissenschaftlich nicht bewiesen ist
- Der fehlende Effekt des Lockdowns im Frühjahr in Deutschland
- Die fragwürdigen Vorhersagen aus Modellierungsstudien
- Auf einer Seite lesen
Wie die beiden erwähnten Modellierungsstudien zur Wirkung von Maßnahmen demonstrieren, sind Studien, welche auf einer Modellierung des Infektionsgeschehens beruhen, sehr fehleranfällig und damit wenig verlässlich. Dramatische Wirkungen können solche Fehler haben, wenn basierend auf solchen Modellierungen Prognosen zur bevorstehenden Virusausbreitung gemacht und darauf aufbauend Empfehlungen zum politischen Handeln abgegeben werden.
In der Tat ist die aktuelle Corona-Krise diesbezüglich ein besonders drastisches Beispiel. Die folgende Grafik zeigt den von verschiedenen Modellierungsstudien vorhergesagten Verlauf der "Covid-19-Todesfälle" in Großbritannien – und den tatsächlich beobachtete Verlauf.
Alle Vorhersagen aus den Modellierungsstudien überschätzen die tatsächlich beobachtete Anzahl an "Covid-19-Todesfällen" in England dramatisch. Interessanterweise findet sich ein vergleichbares Problem in Deutschland. Die folgende Abbildung zeigt die auf einem SEIR-Modell beruhende Prognose einer Forschungsgruppe um Thorsten Lehr von der Universität des Saarlandes zur Entwicklung der Anzahl der Neuinfektionen in Hessen vom 28. Oktober und die tatsächliche Entwicklung der Fallzahlen (rote Balken) – wobei hier anzumerken ist, dass der ein paar Tage später verordnete "Lockdown light" bzw. auch dessen vorherige Ankündigung die Fallzahlen im Zeitraum der zwei Wochen nach dem 28. Oktober nicht beeinflusst haben kann (siehe oben):
Der renommierte Medizinwissenschaftler und Statistiker John Ioannidis schreibt zu den problematischen Vorhersagen aus den Modellierungsstudien in einem Fachartikel (Übersetzung durch den Autor):
Die Vorhersagen aus epidemiologischen Modellierungsstudien haben eine zweifelhafte Erfolgsbilanz, und deren Fehler wurden mit COVID-19 immer deutlicher. Schlechte Dateneingabe, falsche Modellannahmen, hohe Sensitivität der Schätzungen, mangelnde Berücksichtigung epidemiologischer Eigenschaften, geringe bisherige Evidenz für die Auswirkungen verfügbarer Maßnahmen, mangelnde Transparenz, Fehler, mangelnde Bestimmtheit, Berücksichtigung von nur einer oder weniger Dimensionen des Problems, Mangelndes Fachwissen in entscheidenden Disziplinen, Gruppendenken und Mittläufereffekte sowie selektive Berichterstattung sind einige der Ursachen für diese Fehler.
Ein Versagen epidemiologischer Modellierungsstudien ist ein altes Problem. Tatsächlich ist es überraschend, dass epidemiologische Modellierungsstudien angesichts ihrer zweifelhaften Erfolgsbilanz unter Entscheidungsträgern nach wie vor eine hohe Glaubwürdigkeit besitzen. Die Modellierung der Schweinegrippe prognostizierte für Großbritannien 3.100 bis 65.000 Todesfälle. In Wirklichkeit ereigneten sich 457 Todesfälle. Die Modelle zur Maul- und Klauenseuche von Spitzenwissenschaftlern in Spitzenzeitschriften wurden in der Folge von anderen Wissenschaftlern in Frage gestellt, insbesondere warum bis zu 10 Millionen Tiere zu schlachten werden mussten. Nach Vorhersagen für die Rinderenzephalopathie wären in Großbritannien bis zu 150.000 Todesfälle zu erwarten gewesen. Die prognostizierte Untergrenze lag jedoch nur bei 50 Todesfällen, was nahe an der tatsächlichen Anzahl an Todesfällen liegt. Vorhersagen können in ‚idealen‘, isolierten Gemeinschaften mit homogenen Populationen funktionieren, nicht aber in der komplexen gegenwärtigen globalen Welt.
Trotz dieser offensichtlichen Fehlvorhersagen blühte die Prognose mittels epidemiologischen Modellierungsstudien weiter auf, möglicherweise, weil äußerst fehlerhafte Vorhersagen normalerweise keine schwerwiegenden Konsequenzen hatten. In der Tat könnten falsche Vorhersagen sogar nützlich gewesen sein. Eine falsche Vorhersage eines bevorstehen Weltuntergangsszenarios kann Menschen zu einer besseren persönlichen Hygiene anregen. Probleme entstehen aber, wenn Staats- und Regierungschefs (falsche) Vorhersagen zu ernst nehmen und sie als "Kristallkugeln" betrachten, ohne deren Unsicherheit und die Abhängigkeit von den konkreten Modellannahmen zu verstehen. Das Schlachten von Millionen von Tieren betrifft zwar die Interessengruppen der Fleischindustrie - aber die meisten Bürger sind nicht direkt betroffen. Mit COVID-19 können jedoch falsche Vorhersagen die Wirtschaft und Gesundheit von Milliarden von Menschen zerstören und zu großen gesellschaftliche Verwerfungen führen.
Trotz dieser eigentlich bekannten Probleme von Vorhersagen aus Modellierungsstudien wird in der Stellungnahme der Leopoldina als weiteres zentrales Argument für die Empfehlung eines harten Lockdowns auf die Prognosen aus einer Modellierung einer Arbeitsgruppe um Viola Priesemann verwiesen, welche in Form der folgenden Abbildung in der Stellungnahme dargestellt wird (ergänzt um den Startzeitpunkt des "Lockdown light" und des frühestmöglichen Wirkzeitpunktes):
Die Modellierung sagt also vorher, dass ohne eine Verschärfung des Lockdowns die Fallzahlen trotz des inzwischen seit längerem erreichten Peaks der Ausbreitung über längere Zeit noch auf der Höhe des Peaks verbleiben. Ein erstes Problem solcher Modellierungen ist, dass die Modellierung auf einer nicht verlässlichen Datenbasis erfolgt, was keine zuverlässigen Vorhersagen erlaubt. So hat das RKI Anfang November die Testkriterien verändert. Das RKI schreibt dazu im Lagebricht vom 2. Dezember:
Des Weiteren wurden Antigen-Point-of-Care-Tests (AG-POCT) in bestimmten Settings eingeführt. Dies kann zur Folge haben, dass die Grundgesamtheit der getesteten Personen sich von der der Vorwochen unterscheidet und daher die Positivquoten der Vorwochen nicht direkt mit den Positivquoten ab KW46 vergleichbar sind. Eine eindeutige Bewertung über die Größe des Einflusses der geänderten Testkriterien und AG-POCT Einführung ist zum jetzigen Zeitpunkt noch nicht möglich.
Weiterhin ist die Vorhersage eines über mehrere Wochen unveränderten Niveaus der Fallzahlen unrealistisch. Eine solche Vorhersage ist nur dann realistisch, wenn man annimmt, dass es keine Kräfte gibt, welche die Virusausbreitung unabhängig von den Maßnahmen bremsen. In Deutschland scheint es solche Kräfte aber durchaus zu geben, da der Zuwachs in den Fallzahlen bereits lange vor dem Wirksamwerden des "Lockdown light" kontinuierlich zurückging – also unabhängig von der Verschärfung von Maßnahmen.
Eine mögliche Erklärung ist, dass die Mobilität in der Bevölkerung bereits deutlich früher vor dem "Lockdown light" zurückging. Dann wäre aber eine Verschärfung der Maßnahmen nicht nötig, weil die Veränderung der Mobilität ohne spezielle Maßnahmen ausreichend war, um die Virusausbreitung zu bremsen und die Verschärfung durch den "Lockdown light" keinen zusätzlichen Effekt erzeugt hat.
Es gibt bei der Virusausbreitung noch einen zentralen begrenzenden Faktor unabhängig von den ergriffenen Maßnahmen oder den Verhaltensveränderungen in der Bevölkerung: Die Anzahl der für eine Infektion anfälligen Individuen in einer Population verringert sich proportional zur steigenden Virusausbreitung, so dass die Wachstumsrate zunehmend rückläufig ist.
Ein solcher Effekt tritt umso schneller auf, je geringer der Anteil der infizierten Personen ist, der erreicht werden muss, damit sich eine Herdenimmunität einstellt. Oft wird hier angenommen, dass für eine Herdenimmunität 60 Prozent der Individuen einer Population infiziert sein müssen. Allerdings basiert eine solche Schätzung auf der Annahme, dass alle Personen in der Bevölkerung gleich empfänglich für das Virus sind und sich vergleichbar intensiv und völlig zufällig miteinander treffen.
Das ist aber unrealistisch. Zum einen sind verschiedene Personen sozial unterschiedlich stark vernetzt, zum anderen legen inzwischen zahlreiche Studien nahe, dass womöglich doch manche Menschen eine Immunität besitzen, welche aus früheren Kontakten mit ähnlichen Coronaviren stammt. Bezieht man diese beiden Aspekte mit ein, sinkt der zur Herdenimmunität nötige Anteil an Personen, die sich infizieren müssen, möglicherweise sogar auf nur zehn bis 20 Prozent (für einen Überblick siehe BMJ: "Covid-19: Do many people have pre-existing immunity?).
Demnach könnte der seit in etwa Mitte Oktober unabhängig von den Maßnahmen sinkende Zuwachs in den Neuinfektionen auch dadurch bedingt sein, dass bereits ein großer Teil der für das Virus empfänglichen bzw. das Virus weitergebenden Personen infiziert wurde. Zumindest ist es – anders als im Frühjahr – unwahrscheinlich, dass der sinkende Zuwachs auf saisonale Effekte zurückgeht, da sich Coronaviren üblicherweise in der aktuellen Jahreszeit eigentlich zunehmend ausbreiten.
Zusammenfassung
Zusammenfassend basiert die Empfehlung eines harten Lockdowns in der 7. Ad-hoc-Stellungnahme auf keiner belastbaren wissenschaftlichen Grundlage. Als Begründung der Notwendigkeit eines harten Lockdowns wird zum einen nur auf arbiträre Einzelbeispiele verwiesen, obwohl umfassende publizierte Studien existieren, welche die Wirksamkeit von Lockdowns grundlegend in Frage stellen.
Zum anderen wird als Begründung auf Prognosen aus Modellierungsstudien verwiesen, die aber auf nicht verlässlichen Daten basieren und von unrealistischen Modellannahmen ausgehen. Es ist zum einen befremdlich, dass eine wissenschaftliche Fachgesellschaft eine derart unwissenschaftliche Empfehlung abgibt und damit die Prinzipien der wissenschaftlichen Redlichkeit verletzt.
Auch ist aus der Perspektive einer evidenzbasierten Medizin eine Verordnung von Maßnahmen durch Regierungen nur dann vertretbar, wenn deren Wirksamkeit empirisch belastbar nachgewiesen ist, was im Falle eines Lockdowns nicht der Fall ist.
Das ist umso fragwürdiger, wenn mit einer Maßnahme große Kollateralschäden verbunden sind, wie es bei Lockdowns der Fall ist. Hier geht es zum zweiten Artikel der Serie zu den wissenschaftlichen Begründungen des "harten Lockdowns": Die ignorierten Kollateralschäden von Lockdowns.