Katastrophenschutz:Mit der Krise rechnen

Lesezeit: 10 min

Castrophe Simulation

Nach dem Nuklearangriff in Washington: Die Höhe der Säulen zeigt, wie viele Menschen sich an einem Ort aufhalten. Rot bedeutet, dass sie entweder in einem kritischen Zustand oder bereits tot sind.

(Foto: Image by Dane Webster, University of Colorado; Data by NDSSL)

Anschläge, Seuchen, Großbrände - um besser vorbereitet zu sein, simulieren Forscher mit Superrechnern das Verhalten von Millionen Menschen. Die Ergebnisse überraschen.

Von Mitchell Waldrop

An einem Montagmorgen im Mai rollt ein unscheinbarer Lieferwagen durch die Innenstadt von Washington. Es ist Viertel nach elf, als der Lieferwagen die Kreuzung zwischen der 16. Straße und der K-Straße erreicht, bis zum Weißen Haus sind es nur noch wenige Häuserblocks. Dann drückt der Selbstmordattentäter im Wageninneren den Knopf.

Man sieht eine riesengroße Explosion, ein ganzer Häuserblock verschwindet in einem nuklearen Feuerball, vergleichbar mit jenem, der auf Hiroshima niederging. Um die Bombe zünden zu können, haben die Terroristen vor Wochen fünf Kilogramm hochangereichertes Uran gestohlen. Jetzt reißt die Explosion im Umkreis von mindestens einem Kilometer alle Gebäude nieder. Hunderttausend Menschen sterben sofort oder kurz darauf in den Häuserruinen. Das Handynetz bricht zusammen. In ganz Washington wird es komplett dunkel.

Der Wind schiebt die Atompilzwolke ostwärts, in die Vororte. Dort füllen sich die Straßen mit flüchtenden Menschen, einige wollen das Katastrophengebiet schnellstmöglich verlassen, andere suchen nach medizinischer Hilfe. Alles ist nur eine Simulation - und doch todernst gemeint.

Seit den 1950er-Jahren laufen solche inszenierten Nuklearangriffe in den USA unter dem Namen Planungsszenario 1 (NPS1). Nationale Sicherheitsbeamte und Krisenmanager haben das Kriegsspiel erfunden, um sich besser auf einen möglichen Ernstfall vorbereiten zu können. Die NPS1-Übungen gibt es nach wie vor, die Katastrophenschützer wappnen sich noch immer gegen einen Atomangriff. Sie tun das inzwischen allerdings nicht mehr nach einem vorher festgelegten Skript, sondern benutzen Computer. Und simulieren dabei nicht mehr nur eine gesichtslose Masse an Stadtbewohnern, sondern das individuelle Verhalten jedes einzelnen Menschen.

Computer sollen die Ereignisse auf keinen Fall nur mit Standard-Mustern durchspielen

Das NPS1-Modell von heute erschafft eine digitale Kopie jedes Gebäudes, jeder Straße, jeder Stromleitung, jedes Mobilfunkmasts, der innerhalb der Sperrzone liegt. Selbst die Wetterdaten werden in die Analyse eingespeist. Die Forscher wollen damit zeigen, wie schnell sich die radioaktive Wolke ausbreitet. Außerdem berücksichtig das Szenario 730 000 computeranimierte Menschen - genauso viele, wie es in der Realität treffen würde. Diese Menschen unterscheiden sich nach Alter, Geschlecht und Berufen, wie im echten Leben auch. Weil das noch nicht realistisch genug ist, soll jeder Krisenbetroffene seinem eigenen Naturell entsprechend auf die Katastrophe reagieren. Jeder tut also das, was er im Ernstfall auch tun würde: in Panik ausbrechen, weglaufen, nach Familienangehörigen suchen.

Die Computersimulationen sollen die Krise auf keinen Fall mit standardisierten Reaktionsmustern durchspielen. Ein Fehler, den so einige Wirtschaftswissenschaftlern und traditionelle Katastrophenschützer begangen haben. In dem neuen Schreckenszenario, beginnt eine Krise deswegen in einem kleinen Bevölkerungskreis und breitet sich dann immer weiter aus - egal, ob es sich um einen Crash am Finanzmarkt oder eine ansteckende Krankheit handelt. Bisher konnte man so etwas nur schwer realistisch durchspielen.

Doch genau das bräuchten die Notfallmanager - Details aus der Wirklichkeit, sagt Christopher Barrett. Er ist Informatiker am Institut für Biokomplexität der Staatlichen Universität in Blacksburg und hat das neue NPS1-Modell für die Regierung entwickelt. Er kann nun endlich vorhersagen, dass ein Stromausfall an Ort X zu einem überraschenden Stau an Ort Y führen könnte. Auch die Reaktion der Ersthelfer fällt ins Gewicht. Sollten sie sich entscheiden, in den Stunden nach einem Anschlag die Mobilfunkmasten wieder funktionstüchtig zu machen, erklärt NPS1 exakt, wie viel mehr Zivilisten dadurch auf den Straßen unterwegs sind. Oder wie viele mehr zu Hause bleiben.

Das Modell mag noch so überzeugend klingen, es gibt auch Nachteile. Simulationen wie das NPS1 beanspruchen enorm viel Rechenleistung. So viel, dass ein Computercluster aus Mikroprozessoren eineinhalb Tage durchlaufen muss. Selbst dann verhalten sich die Katastrophenopfer auf dem Bildschirm noch recht holzschnittartig. "Es gibt einen grundlegenden Kompromiss zwischen der Komplexität der einzelnen Teilnehmer und der Größe der Simulation", sagt Jonathan Pfautz, der sich mit einer Agentur in Virginia um die Finanzierung solcher Digitalprojekte kümmert.

Allmählich wächst allerdings auch die Leistung der Computer, ebenso die Datenmengen, aus denen sich die Katastrophen-Szenarien speisen. Die Modelle werden deshalb auch in anderen Bereichen immer beliebter. Gesundheitsexperten, Stadtplaner und Wirtschaftswissenschaftler, sie alle nehmen die neue Technik inzwischen sehr ernst - aus gutem Grund: "Es gibt einfach nichts Besseres und Effektiveres", sagt Ira Longini, von der Florida-Universität in Gainesville, die gerade versucht, Epidemien neu zu modellieren.

Die Anfänge der Modelle reichen überraschenderweise bis in die 1940er-Jahre zurück. Es waren Computerpioniere wie Alan Turing, die als Erste versuchten, mit interagierenden Softwarebits komplexes Verhalten in der Physik und Biologie nachzuspielen - wenn auch nur im kleinen Rahmen. Als wichtiger Wegbereiter gilt die Simulation "Sugarscape" in den 1990er-Jahren, ein Modell, das zwei amerikanische Ökonomen entwickelten. Sie wollten zum ersten Mal das Sozialverhalten von Menschen auf einem gewöhnlichen Desktop-Computer nachstellen. Die Idee: künstliche Probanden werden auf die Suche nach Zucker geschickt. Das Projekt war in seinem Umfang bewusst bescheiden angelegt, trotzdem erlaubte es Einblicke in komplexes Gruppenverhalten, zum Beispiel auf dem Gebiet der Migration, Gewaltforschung oder Ghettobildung.

Als weiterer Meilenstein gilt die Verkehrsanalyse, die Forscher in einem Labor in New Mexico entwickelten. Anders als bei traditionellen Modellen folgten die Fahrzeuge nicht einer einzigen mathematischen Gleichung, sondern jeder Fahrer bewegte sich autonom durch das Straßennetz einer Stadt. Die Simulation legte großen Wert auf eine realistische Mischung an Autos, Lastwagen und Bussen. Auch die Verkehrsteilnehmer unterschieden sich: nach Alter, Fahrkönnen und Fahrziel. Es dauerte dann nicht lange, bis das "Transsim"-Modell auf das Straßennetz in real existierenden Städten angewandt wurde. Und siehe da, Vorhersagen von Staus und Luftverschmutzung wurden plötzlich um ein Vielfaches präziser.

Ähnlich rasch vollzieht sich der Wandel auf dem Feld der Epidemiologie. Bis ins späte 20. Jahrhundert bewerteten Virenforscher die Ausbreitung von Krankheiten noch mit einem vergleichsweise simplen Satz an Gleichungen. Sie unterteilten die Menschen einfach in ein paar wenige Kategorien: die leicht Ansteckbaren, die bereits Infizierten und die Immunen. Geleitet von der Annahme, dass sich die Fälle schon irgendwie gleich auf eine Region verteilen. Mittlerweile sehen aber immer mehr Epidemiologen, dass ein solches Modell der Wirklichkeit nie ganz gerecht werden kann. Es lässt die Geografie einer Krisenregion völlig außer Acht, ebenso wie das Verkehrssystem, die Familienstrukturen oder die Verhaltensänderungen, die noch auf jedem Krankheitsausbruch folgten. All das hat großen Einfluss darauf, wie sich eine Krankheit ausbreitet.

Die Forscher von Virginia Tech haben daraus gelernt. Während des Ebola-Ausbruchs vor vier Jahren in Westafrika verfolgten sie einen neuen Ansatz am Computer. Sie berücksichtigten wesentlich stärker das individuelle Verhalten der Betroffenen. So konnten sie dem US-Militär dabei helfen, die besten Standorte für die Feldkrankenhäuser zu finden. Keine leichte Aufgabe. Die Planer müssen dafür wissen, wo die Infektionsrate am höchsten ist, wie sie die Patienten am schnellsten über die holprigen Straßen zu den Ärzten bringen können.

Das Epstein-Labor der New York City Universität (NYU) hat sich aus denselben Gründen für einen neuen Plan entschieden. Zusammen mit der Gesundheitsbehörde der Stadt versuchen die Forscher, einen potenziellen Ausbruch des gefährlichen Zika-Fiebers nachzustellen, das von Stechmücken übertragen wird. Die Wissenschaftler haben dafür die gesamte Bevölkerung von New York nachgebildet - immerhin 8,5 Millionen Menschen. Auch die Moskitopopulation ist penibel in die Berechnungen eingeschlossen. Um auf eine möglichst realistische Zahl zu kommen, hatten die Forscher zuvor Stechmückenfallen in der Stadt aufgestellt und aus den Fängen auf die Gesamtzahl hochgerechnet.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Süddeutsche Zeitung
  • Twitter-Seite der SZ
  • Facebook-Seite der SZ
  • Instagram-Seite der SZ
  • Mediadaten
  • Newsletter
  • Eilmeldungen
  • RSS
  • Apps
  • Jobs
  • Datenschutz
  • Abo kündigen
  • Kontakt und Impressum
  • AGB