Physiker über epidemiologische Modelle: Der Knackpunkt ist der Mensch

Das Infektionsgeschehen in Deutschland hat sich auf einem konstanten Niveau eingependelt. Modellierer stehen vor einem Rätsel, sagt Dirk Brockmann.

Menschen mit Mund-Nasenschutz stehen für einen Corona-Test an

Mund-Nasen-Schutz tragen und Abstand halten beeinflussen das Infektionsgeschehen Foto: Vit Äimnek/CTK/dpa

taz: Herr Brockmann, die USA, Spanien, Frankreich und einige andere Länder erleben derzeit eine zweite Welle der Pandemie: die Infektionen mit dem Coronavirus steigen nach Aufhebung des Lockdowns erneut an. In Deutschland dagegen scheinen sich die Fallzahlen – nach einem zunächst moderaten Anstieg in Folge der Lockerungen – inzwischen auf einem relativ konstanten Niveau eingependelt zu haben. Woran liegt das?

Dirk Brockmann: Tatsächlich haben wir in Deutschland ein völlig anderes Szenario als in anderen Ländern. Warum das so ist, ist ein großes Rätsel. Ich habe hierüber mit Modellierern weltweit gesprochen, also mit Wissenschaftlern, die anhand mathematischer Modelle Prognosen dazu erstellen, wie sich das Infektionsgeschehen entwickeln wird. Wir sind überrascht über Deutschland, aber wir haben derzeit keine Erklärung.

Welchen Verlauf hatten Sie für Deutschland erwartet?

Der Klassiker geht so: Die Epidemie bricht aus, die Zahlen schießen in die Höhe, es folgt der Lockdown, die Zahlen sinken, es wird gelockert, es kommt die zweite Welle. So ist es zum Beispiel in Frankreich. Dann gibt es Länder, in denen das Virus nahezu verschwunden schien, Australien und Neuseeland etwa, aber dann kamen Re-Importe, und die Infektionen stiegen wieder an. Und schließlich ist da Deutschland, aber auch die Niederlande und Skandinavien, wir sind also nicht allein. Es gibt bei uns seit Wochen nahezu konstante Fallzahlen jeden Tag, wir stellen kaum noch Schwankungen innerhalb des Infektionsgeschehens fest. Der R-Wert…

der angibt, wie viele Menschen eine infizierte Person im Schnitt ansteckt …

… dieser R-Wert dümpelt seit Wochen um den kritischen Wert 1 herum, an der Schwelle zum exponentiellen Wachstum also. Mal liegt er ein wenig unter 1, mal etwas darüber. Es gibt nach meiner Erkenntnis kein überzeugendes Modell, das diese Art von Dynamik erklärt.

51, ist Physiker und Professor am Institut für Biologie der Humboldt-Universität Berlin. Daneben leitet er am Robert-Koch-Institut die Arbeitsgruppe „Computational Epidemiology“, die sich mit der Modellierung der Ausbreitung und Dynamik von Infektionskrankheiten beschäftigt. Brockmann und sein Team entwickeln hierzu mathematische Modelle, numerische Methoden und anwendungsorientierte Computersimulationen komplexer Ausbreitungsphänomene.

Die Menschen tragen neuerdings Masken, sie halten mehr Abstand als früher. Könnte es daran liegen?

Klar, das veränderte Verhalten spielt eine Rolle. Aber eigentümlich ist doch, dass es weder immer weniger Fälle werden – noch immer mehr. Es muss noch etwas anderes dahinter stecken. Die einzig plausible Erklärung dafür ist, dass wir es hier mit selbstorganisierter Kritikalität zu tun haben.

Selbstorganisierte … wie bitte?

Selbstorganisierte Kritikalität. Der Begriff kommt aus der Physik. Bezogen auf die Pandemie bedeutet er: Als Antwort auf das Ausbruchsgeschehen ändern Menschen ihr Verhalten. Das drückt die Zahl der Neuinfektionen. Daraufhin verhalten sich die Menschen wieder „normaler“, die Fallzahlen steigen wieder, die Menschen werden wieder vorsichtiger. So pendelt sich das System am kritischen Wert von selbst ein. Das ist ein möglicher Mechanismus. Die Frage, die sich daran anschließt, ist, welche dynamischen Zutaten notwendig sind, damit eine Epidemie entweder eine Doppelwelle nach sich zieht oder aber zum Aussterben führt oder eben zum Einpendeln an diesem kritischen Wert. Weltweit kniffeln Wissenschaftler daran, dynamische Modelle zu entwickeln, die zeigen, wovon abhängt, welche dieser drei Möglichkeiten wann und unter welchen Umständen wahrscheinlich wird.

Modellierungsstudien, die voraussagen sollen, wie sich die Pandemie entwickeln wird und welche Faktoren das Infektionsgeschehen wie beeinflussen, haben unter Corona einen großen Hype erfahren. Der Erkenntnisgewinn indes hält sich bislang in Grenzen.

Klassischerweise arbeiten Modellierer aus dem Bereich der computational epidemiology mit bereits existierenden Daten aus der Vergangenheit. Zu prognostizieren, wie eine Epidemie, die noch in vollem Gange ist, in der näheren Zukunft verlaufen wird, ist eine recht neue Sache. Es wurde erstmals bei der Schweinegrippe-Pandemie im Jahr 2009 versucht und dann bei der Ebola-Epidemie in Westafrika 2014/2015; in beiden Fällen ist es, meistens jedenfalls, schiefgegangen.

Woran liegt das?

Viele dieser mathematischen Modelle, das sehen wir auch jetzt bei Covid-19, betrachten die Pandemie unabhängig davon, wie das menschliche Verhalten – als Antwort auf das Infektionsgeschehen – sich ändert. Sie modellieren die Ausbreitung der Pandemie sehr gut, sie versuchen, möglichst alle Details zu erfassen und wirklichkeitsgetreu abzubilden. Aber sie lassen außer Acht, dass so ein Virus sich eben nicht mal unbemerkt durch die Bevölkerung frisst. Der Knackpunkt ist der Mensch. Der Mensch reagiert auf die Pandemie. Doch wie er reagiert, kann sehr unterschiedlich sein und hängt von vielen Faktoren ab. Diese Rückkopplungen sind komplex und entsprechend schwer zu modellieren.

Was macht ein gutes Modell aus?

Ein gutes Modell berücksichtigt das Wesentliche und verwirft das Unwesentliche. Ein Smiley etwa ist ein gutes Modell für ein Gesicht. Das Smiley zeigt uns, was notwendig ist, um ein Gesicht zu identifizieren: die Augen, der Mund, der Kreis drum herum. Ohren, Nase oder Haare dagegen sind verzichtbar. Was ich sagen will: Wir müssen differenzieren zwischen wichtigen und unwichtigen Parametern. Das tun detailreiche Modellierungen oft leider nicht. Und wir müssen die Modelle auf ihre strukturelle Stabilität hin untersuchen. Wir müssen wissen, welche der Parameter zu völlig anderen Ergebnissen führen, sobald wir ein wenig an ihnen wackeln.

Wie sich das Infektionsgeschehen im Herbst bei uns konkret entwickeln wird, lässt sich angesichts dieser Wackligkeiten nicht vorhersagen?

Es ist ein bisschen wie bei der Wettervorhersage: Man kann kurzzeitige Prognosen machen, für eine Woche vielleicht, aber Langzeitszenarien halte ich für nicht seriös. Es gibt allerdings hervorragende Modelle, die verschiedene Szenarien skizzieren, die im Herbst eintreten könnten. Diese Modelle sind sehr robust. Welches der Szenarien am Ende eintrifft, können sie freilich nicht vorhersagen. Aber es ist schon mal ein Gewinn, zu wissen, wie es aussehen könnte.

Die Klimaforschung wäre ohne Modellierungsstudien undenkbar – und leistet dank dieser Modelle recht präzise Vorhersagen. Was hat sie epidemiologischen Modellen voraus?

Ha, das Klima! Schön, dass Sie das ansprechen. Es stimmt, Klimamodelle sind einerseits verwandt, aber andererseits völlig anders. Richtig ist, dass auch in der Klimaforschung sowohl dynamische als auch statistische Modelle eine Rolle spielen. Aber im Gegensatz zu epidemiologischen Modellen basieren Klimamodelle auf solider Physik, von der man weiß, dass sie richtig ist. In der Regel treffen Klimamodelle Wenn-dann-Aussagen. Also etwa: „Wenn es so weitergeht mit der Erderwärmung, dann passiert Folgendes.“ Und diese Erkenntnisse aus „dann passiert Folgendes“ entstammen komplexen Computermodellen, die die Atmosphäre, die Geosphäre und die Hydrosphäre modellieren. Deren Gesetzmäßigkeiten sind weitest­gehend bekannt und belastbar.

Und es gibt da keine Unsicherheiten?

Einzelne Parameter kennt man vielleicht nicht so ganz genau, das schafft dann gewisse Unsicherheiten, aber im Großen und Ganzen kennt man die Struktur der Klimadynamik weitaus besser und kann sie insofern besser modellieren als etwa die Risikowahrnehmung beim Menschen. Dazu kommt: Klimamodelle verfolgen in der Regel Kurvenverläufe aus der Vergangenheit, sie vergleichen also beispielsweise die derzeitige Erderwärmung mit den x Erderwärmungen, die es bereits gegeben hat in der Historie. Klimamodelle können so geeicht werden. Diese langzeitprognostischen Modelle sind viel solider als epidemiologische Modelle, die Prognosen über einige Monate abgeben sollen.

Angesichts der Flut immer neuer Modellierungen zum Verlauf der Pandemie ist es für Laien schwer, den Überblick zu behalten. Was raten Sie?

Es gibt ein weit verbreitetes Missverständnis darüber, was Modelle sind. Zum einen müssen wir Modellierer deswegen besser erklären, wie mathematische Modelle funktionieren, was sie leisten können – und was nicht. Modelle sollen ja, vereinfacht gesagt, eine Prognose abgeben, wie eine Sache sich entwickeln wird, oder ein Phänomen erklären. Wenn Sie mir jetzt aber sagen, entwickeln Sie mir doch bitte ein Modell für die Covid-19-Pandemie, dann ist das so, als wenn Sie mich um ein möglichst detailgetreues Modell für ein Fahrzeug bäten. Und da wüssten Sie schon, wie grotesk diese Bitte anmutet: Denn es gibt Lastwagen und Pkw und Panzer und Kräne – und sie alle haben unterschiedliche Funktionen. Das ist bei Modellen auch so; es gibt dynamische Modelle, statistische Modelle, agenten-basierte Modelle, Metapopulationsmodelle, qualitative und quantitative Modelle, Netzwerkmodelle und noch viele mehr. Wir müssen uns also zunächst darüber verständigen, welche Aussagen wir worüber machen möchten und auf welchem Level.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de