Katastrophenschutz:Mit der Krise rechnen

Lesezeit: 10 min

Castrophe Simulation

Nach dem Nuklearangriff in Washington: Die Höhe der Säulen zeigt, wie viele Menschen sich an einem Ort aufhalten. Rot bedeutet, dass sie entweder in einem kritischen Zustand oder bereits tot sind.

(Foto: Image by Dane Webster, University of Colorado; Data by NDSSL)

Anschläge, Seuchen, Großbrände - um besser vorbereitet zu sein, simulieren Forscher mit Superrechnern das Verhalten von Millionen Menschen. Die Ergebnisse überraschen.

Von Mitchell Waldrop

An einem Montagmorgen im Mai rollt ein unscheinbarer Lieferwagen durch die Innenstadt von Washington. Es ist Viertel nach elf, als der Lieferwagen die Kreuzung zwischen der 16. Straße und der K-Straße erreicht, bis zum Weißen Haus sind es nur noch wenige Häuserblocks. Dann drückt der Selbstmordattentäter im Wageninneren den Knopf.

Man sieht eine riesengroße Explosion, ein ganzer Häuserblock verschwindet in einem nuklearen Feuerball, vergleichbar mit jenem, der auf Hiroshima niederging. Um die Bombe zünden zu können, haben die Terroristen vor Wochen fünf Kilogramm hochangereichertes Uran gestohlen. Jetzt reißt die Explosion im Umkreis von mindestens einem Kilometer alle Gebäude nieder. Hunderttausend Menschen sterben sofort oder kurz darauf in den Häuserruinen. Das Handynetz bricht zusammen. In ganz Washington wird es komplett dunkel.

Der Wind schiebt die Atompilzwolke ostwärts, in die Vororte. Dort füllen sich die Straßen mit flüchtenden Menschen, einige wollen das Katastrophengebiet schnellstmöglich verlassen, andere suchen nach medizinischer Hilfe. Alles ist nur eine Simulation - und doch todernst gemeint.

Seit den 1950er-Jahren laufen solche inszenierten Nuklearangriffe in den USA unter dem Namen Planungsszenario 1 (NPS1). Nationale Sicherheitsbeamte und Krisenmanager haben das Kriegsspiel erfunden, um sich besser auf einen möglichen Ernstfall vorbereiten zu können. Die NPS1-Übungen gibt es nach wie vor, die Katastrophenschützer wappnen sich noch immer gegen einen Atomangriff. Sie tun das inzwischen allerdings nicht mehr nach einem vorher festgelegten Skript, sondern benutzen Computer. Und simulieren dabei nicht mehr nur eine gesichtslose Masse an Stadtbewohnern, sondern das individuelle Verhalten jedes einzelnen Menschen.

Computer sollen die Ereignisse auf keinen Fall nur mit Standard-Mustern durchspielen

Das NPS1-Modell von heute erschafft eine digitale Kopie jedes Gebäudes, jeder Straße, jeder Stromleitung, jedes Mobilfunkmasts, der innerhalb der Sperrzone liegt. Selbst die Wetterdaten werden in die Analyse eingespeist. Die Forscher wollen damit zeigen, wie schnell sich die radioaktive Wolke ausbreitet. Außerdem berücksichtig das Szenario 730 000 computeranimierte Menschen - genauso viele, wie es in der Realität treffen würde. Diese Menschen unterscheiden sich nach Alter, Geschlecht und Berufen, wie im echten Leben auch. Weil das noch nicht realistisch genug ist, soll jeder Krisenbetroffene seinem eigenen Naturell entsprechend auf die Katastrophe reagieren. Jeder tut also das, was er im Ernstfall auch tun würde: in Panik ausbrechen, weglaufen, nach Familienangehörigen suchen.

Die Computersimulationen sollen die Krise auf keinen Fall mit standardisierten Reaktionsmustern durchspielen. Ein Fehler, den so einige Wirtschaftswissenschaftlern und traditionelle Katastrophenschützer begangen haben. In dem neuen Schreckenszenario, beginnt eine Krise deswegen in einem kleinen Bevölkerungskreis und breitet sich dann immer weiter aus - egal, ob es sich um einen Crash am Finanzmarkt oder eine ansteckende Krankheit handelt. Bisher konnte man so etwas nur schwer realistisch durchspielen.

Doch genau das bräuchten die Notfallmanager - Details aus der Wirklichkeit, sagt Christopher Barrett. Er ist Informatiker am Institut für Biokomplexität der Staatlichen Universität in Blacksburg und hat das neue NPS1-Modell für die Regierung entwickelt. Er kann nun endlich vorhersagen, dass ein Stromausfall an Ort X zu einem überraschenden Stau an Ort Y führen könnte. Auch die Reaktion der Ersthelfer fällt ins Gewicht. Sollten sie sich entscheiden, in den Stunden nach einem Anschlag die Mobilfunkmasten wieder funktionstüchtig zu machen, erklärt NPS1 exakt, wie viel mehr Zivilisten dadurch auf den Straßen unterwegs sind. Oder wie viele mehr zu Hause bleiben.

Das Modell mag noch so überzeugend klingen, es gibt auch Nachteile. Simulationen wie das NPS1 beanspruchen enorm viel Rechenleistung. So viel, dass ein Computercluster aus Mikroprozessoren eineinhalb Tage durchlaufen muss. Selbst dann verhalten sich die Katastrophenopfer auf dem Bildschirm noch recht holzschnittartig. "Es gibt einen grundlegenden Kompromiss zwischen der Komplexität der einzelnen Teilnehmer und der Größe der Simulation", sagt Jonathan Pfautz, der sich mit einer Agentur in Virginia um die Finanzierung solcher Digitalprojekte kümmert.

Allmählich wächst allerdings auch die Leistung der Computer, ebenso die Datenmengen, aus denen sich die Katastrophen-Szenarien speisen. Die Modelle werden deshalb auch in anderen Bereichen immer beliebter. Gesundheitsexperten, Stadtplaner und Wirtschaftswissenschaftler, sie alle nehmen die neue Technik inzwischen sehr ernst - aus gutem Grund: "Es gibt einfach nichts Besseres und Effektiveres", sagt Ira Longini, von der Florida-Universität in Gainesville, die gerade versucht, Epidemien neu zu modellieren.

Die Anfänge der Modelle reichen überraschenderweise bis in die 1940er-Jahre zurück. Es waren Computerpioniere wie Alan Turing, die als Erste versuchten, mit interagierenden Softwarebits komplexes Verhalten in der Physik und Biologie nachzuspielen - wenn auch nur im kleinen Rahmen. Als wichtiger Wegbereiter gilt die Simulation "Sugarscape" in den 1990er-Jahren, ein Modell, das zwei amerikanische Ökonomen entwickelten. Sie wollten zum ersten Mal das Sozialverhalten von Menschen auf einem gewöhnlichen Desktop-Computer nachstellen. Die Idee: künstliche Probanden werden auf die Suche nach Zucker geschickt. Das Projekt war in seinem Umfang bewusst bescheiden angelegt, trotzdem erlaubte es Einblicke in komplexes Gruppenverhalten, zum Beispiel auf dem Gebiet der Migration, Gewaltforschung oder Ghettobildung.

Als weiterer Meilenstein gilt die Verkehrsanalyse, die Forscher in einem Labor in New Mexico entwickelten. Anders als bei traditionellen Modellen folgten die Fahrzeuge nicht einer einzigen mathematischen Gleichung, sondern jeder Fahrer bewegte sich autonom durch das Straßennetz einer Stadt. Die Simulation legte großen Wert auf eine realistische Mischung an Autos, Lastwagen und Bussen. Auch die Verkehrsteilnehmer unterschieden sich: nach Alter, Fahrkönnen und Fahrziel. Es dauerte dann nicht lange, bis das "Transsim"-Modell auf das Straßennetz in real existierenden Städten angewandt wurde. Und siehe da, Vorhersagen von Staus und Luftverschmutzung wurden plötzlich um ein Vielfaches präziser.

Ähnlich rasch vollzieht sich der Wandel auf dem Feld der Epidemiologie. Bis ins späte 20. Jahrhundert bewerteten Virenforscher die Ausbreitung von Krankheiten noch mit einem vergleichsweise simplen Satz an Gleichungen. Sie unterteilten die Menschen einfach in ein paar wenige Kategorien: die leicht Ansteckbaren, die bereits Infizierten und die Immunen. Geleitet von der Annahme, dass sich die Fälle schon irgendwie gleich auf eine Region verteilen. Mittlerweile sehen aber immer mehr Epidemiologen, dass ein solches Modell der Wirklichkeit nie ganz gerecht werden kann. Es lässt die Geografie einer Krisenregion völlig außer Acht, ebenso wie das Verkehrssystem, die Familienstrukturen oder die Verhaltensänderungen, die noch auf jedem Krankheitsausbruch folgten. All das hat großen Einfluss darauf, wie sich eine Krankheit ausbreitet.

Die Forscher von Virginia Tech haben daraus gelernt. Während des Ebola-Ausbruchs vor vier Jahren in Westafrika verfolgten sie einen neuen Ansatz am Computer. Sie berücksichtigten wesentlich stärker das individuelle Verhalten der Betroffenen. So konnten sie dem US-Militär dabei helfen, die besten Standorte für die Feldkrankenhäuser zu finden. Keine leichte Aufgabe. Die Planer müssen dafür wissen, wo die Infektionsrate am höchsten ist, wie sie die Patienten am schnellsten über die holprigen Straßen zu den Ärzten bringen können.

Das Epstein-Labor der New York City Universität (NYU) hat sich aus denselben Gründen für einen neuen Plan entschieden. Zusammen mit der Gesundheitsbehörde der Stadt versuchen die Forscher, einen potenziellen Ausbruch des gefährlichen Zika-Fiebers nachzustellen, das von Stechmücken übertragen wird. Die Wissenschaftler haben dafür die gesamte Bevölkerung von New York nachgebildet - immerhin 8,5 Millionen Menschen. Auch die Moskitopopulation ist penibel in die Berechnungen eingeschlossen. Um auf eine möglichst realistische Zahl zu kommen, hatten die Forscher zuvor Stechmückenfallen in der Stadt aufgestellt und aus den Fängen auf die Gesamtzahl hochgerechnet.

Arbeitswege, Wetter, Sexualverhalten: alles ist wichtig

Dabei soll das Modell auch das Verhalten der New Yorker möglichst realistisch simulieren. Die Wissenschaftler haben deshalb eine Vielzahl von Daten aufbereitet: zum Beispiel den Weg von der eigenen Haustür zur Schule oder zum Arbeitsplatz, Einkaufsgewohnheiten und Sexualverhalten (Zika kann durch ungeschützten Geschlechtsverkehr übertragen werden).

Und selbstverständlich werden auch Faktoren berücksichtigt, die sich auf die Entwicklung der Mückenpopulation auswirken. Dazu zählen saisonale Temperaturschwankungen, Regenfälle oder günstige Brutstätten wie Altreifendepots. Das Ergebnis kann sich sehen lassen. Mit dem Modell können die Forscher nicht nur vorhersagen, wie schlimm ein möglicher Ausbruch ausfällt (eine Prognose, die sich Epidemiologen auch mit den herkömmlichen Instrumenten zutrauen); mit den NYU-Berechnungen lassen sich jetzt auch die schlimmsten Krisenherde treffsicher bestimmen.

Die Computersimulation ist inzwischen zu einem mächtigen Werkzeug geworden, auf das selbst Wirtschaftswissenschaftler nicht mehr verzichten wollen. Stéphane Hallegatte von der Weltbank in Washington D.C. will so die Ursachen der weltweiten Armut besser verstehen. Er ist der Ansicht, dass die üblichen Kennzahlen wie das Bruttoinlandsprodukt oder das Gesamteinkommen wenig über die Alltagsprobleme aussagen.

Hallegatte und seine Kollegen wollen es besser machen. Sie schauen sich jede einzelne Familie gesondert an. Das Team hat ein Modell mit 1,4 Millionen Haushalten aus der ganzen Welt gebaut, pro Land sind es immer 10 000. Die Wissenschaftler wollen untersuchen, wie sich der Klimawandel und andere Katastrophen konkret auf die Gesundheit, Ernährungssicherheit und Arbeitsproduktivität dieser Menschen auswirken, wie Stürme und Dürren die Ernteerträge der Bauern mindern. Oder wie Erdbeben Straßen, Autos und Fabriken zerstören.

Erstaunlich, manchmal können arme Bauern von einer Dürre sogar profitieren

Auf den ersten Blick liefert das Modell von Hallegatte und seinen Kollegen nur den endgültigen Beweis für eine längst bekannte Annahme: Arme Menschen sind meist stärker von Katastrophen betroffen als reiche. Doch Hallegatte zeigt, dass es auch Ausnahmen geben kann. Wenn etwa arme Menschen in bestimmten Ländern hauptsächlich von der Landwirtschaft leben, können sie unter Umständen sogar vom Klimawandel profitieren, nämlich dann, wenn die Preise für Nahrungsmittel weltweit steigen. Wird die arme Bevölkerung hingegen in die Städte abgedrängt, trifft sie der Preisanstieg umso härter.

Einen Vorteil hat das Modell schon jetzt. Anders als früher lassen sich aus ihm maßgeschneiderte Lösungen für die Bedürfnisse eines Landes ableiten. Dabei kann Hallegatte die Strategien auf eine sehr konkrete Weise erläutern. Hallegatte sagt: "Statt einem Land zu erklären, dass der Klimawandel das Bruttoinlandsprodukt um x Prozent senken wird, kann man jetzt genau sagen, dass zehn Millionen Menschen in die Armut abrutschen werden." Die Zahl versteht jeder.

Da so viel auf dem Spiel steht, wollen die Betroffenen immer sehr genau wissen, warum sie den Prognosen überhaupt trauen sollen. Vor allem im Fall eines möglichen Nuklearangriffs, für den es in den USA glücklicherweise keine empirischen Daten gibt. Wissenschaftler wie Christopher Barrett haben gleich mehrere Antworten auf diese Frage. Zunächst sollten die Nutzer aber nicht erwarten, dass sich mit solchen Modellen etwa ein Börsencrash am nächsten Dienstag vorhersagen lasse. Wie bei einer Hurrikanprognose können die Analysten immer nur die verschiedenen Wahrscheinlichkeiten gewichten und so die Bandbreite eines möglichen Ereignisses vorhersagen. Dennoch können die Planer sehr genau erklären, zu welchen Konsequenzen das jeweilige Ereignis A, B oder C führt.

Christopher Barrett hat noch eine zweite Antwort. Die Forscher sollten nie allein anhand der Endergebnisse darüber entscheiden, ob ein Modell sinnvoll ist oder nicht. Besser wäre es stattdessen, wenn sich die Modellbauer jedes einzelne Detail im Verlauf genau anschauen - und zum Beispiel den veranschlagten Weg zur Arbeit mit realen U-Bahn-Daten abgleichen. "Bei jedem Schritt müssen die Daten neu kalibriert werden", sagt der Wissenschaftler.

Helfen kann hier sogar die Psychologie, vor allem in Krisenmomenten, in denen Menschen ihre Ur-Instinkte aktivieren. Im NPS1-Modell gibt es beispielsweise eingebaute Verhaltensmuster. Die künstlichen Probanden wechseln zwischen "Erste-Hilfe-Maßnahmen", "Unterkunftssuche" und der "Evakuierung" automatisch hin und her. Feldstudien haben allerdings gezeigt, dass es je nach Ereignis erstaunliche Unterschiede gibt. "Bei Erdbeben stellen wir fest, dass die Menschen mehr Angst haben, Familie oder Freunde zu verlieren, als vor der Katastrophe an sich", sagt Julie Dugdale, die an der Universität Grenoble zu künstlicher Intelligenz forscht. In einer Erdbebensituation begeben sich Menschen auf der Suche nach ihren Liebsten sogar bereitwillig in Gefahr. Ganz ähnlich sei es bei einem Großbrand. Das Problem: Bauingenieure nehmen oft an, die Menschen würden bei einem Alarm sofort zu den Ausgängen stürmen. In der Realität sei das aber nicht immer der Fall, sagt Dugdale: "Achten Sie bei der nächsten Brandschutzübung mal darauf."

Die blanke Panik bricht überhaupt selten aus. Forscher der Universität Delaware in Newark haben das 2011 gezeigt, als sie einen verheerenden Brand in einem Nachtclub auf Rhode Island nachstellten. Damals drängten sich die Besucher so eng zusammen, dass sich niemand bewegen konnte. 100 Menschen starben. Durch die Polizei, die Lokalzeitung und die Angaben der Überlebenden hatten die Forscher nun eine gute Datengrundlage, um das Ereignis nachzuspielen. Aber nachdem sie die Informationen in das Modell eingespeist hatten, waren sie selbst einigermaßen überrascht: "Wir haben herausgefunden, dass die Leute versuchten, den Club zusammen mit ihren Freunden und Kollegen zu verlassen", sagt der Soziologe Ben Aguirre.

Künstliche Menschen werden jetzt viel häufiger in den Familien-Modus geschickt

Die Erkenntnis findet sich inzwischen auch im NPS1-Modell wieder. Die künstlichen Menschen im Computer werden nun viel häufiger in den "Familien-Modus" und viel seltener in den "Panik-Modus" geschickt. Mit zum Teil kontraintuitiven Ergebnissen. Die Katastrophenplaner gehen davon aus, dass einige Menschen nach einem Anschlag sofort in die Richtung der Explosion rennen - in dem verzweifelten Versuch, die Kinder aus der Schule zu holen oder den vermissten Ehepartner zu finden. Ein Umstand, der großes Chaos anrichten kann. Es sei denn, man versucht das Mobilfunknetz so schnell wie möglich wieder zum Laufen zu bringen.

Noch sind die akteursbasierten Modelle zu aufwendig. Politiker und andere Entscheidungsträger bekommen sie in aller Regel nicht rechtzeitig zu sehen. Das könnte sich nun ändern. Das Epstein-Labor plant nationale Zentren, in denen Entscheidungsträger den Umgang mit den Simulationen lernen sollen. Sie haben dafür extra ein "Petabyte-Spielbuch" entworfen: eine digitale Bibliothek, die für nahezu jede Großstadt vorberechnete Modelle zu den allermeisten Risiken enthält.

"Wenn tatsächlich etwas passiert, nehmen wir einfach das Modell, das am besten passt", sagt Joshua Epstein. Nahezu in Echtzeit ließe sich dann berechnen, wie viele Schutzräume man brauche und welche Evakuierungsmaßnahmen sinnvoll wären. Ganz ähnlich denkt der Computerwissenschaftler Madhav Marathe. Wenn ein Hurrikan der Kategorie 5 im Anmarsch ist, sagt er, könne jemand wie der Bürgermeister von San Juan nicht eine Woche lang auf eine Analyse zur Gefährdung des Stromnetzes warten. "Gebraucht werden Informationen, die sich sofort anwenden lassen." Marathe will deshalb, dass die Modelle in einer Computer-Cloud gespeichert werden. Im Ernstfall sollen sie in sehr kurzer Zeit sehr genaue Analysen liefern.

Der Wissenschaftler versteht seinen Dienst als Serviceleistung. Das Labor, in dem er arbeitet, hat für das Internet ein Werkzeug entwickelt, mit dem Gesundheitsbeamte eigene Simulationen für Pandemien durchspielen können. Ein Programmierer ist nicht mehr nötig. Stattdessen können die Nutzer je nach Interesse und Region die Variablen selber anpassen. Im Repertoire haben die Wissenschaftler so gut wie alles, von der Kleinstadt bis zu den gesamten Vereinigten Staaten. Auch Krankheiten wie Grippe, Masern und Ebola lassen sich individuell einstellen. Anhand von integrierten Karten und Grafiken können die Nutzer dann sehr genau beobachten, welchen Verlauf die Krise nehmen würde.

Madhav Marathe hat sich auf Epidemien spezialisiert. Sein geografisches Modell und die Beispielbevölkerung lassen sich aber genauso gut auf andere Katastrophen anwenden. Denkbar wären zum Beispiel Chemieunfälle, Hurrikane, ein Megastromausfall. Sein Kollege Christopher Barrett glaubt sowieso, dass die Menschen die Modelle irgendwann einmal so selbstverständlich wie Google Maps benutzen werden. Zum Beispiel, wenn Eltern ihren Sohn in die Schule schicken. Barrett sagt: "Dann will ich vielleicht wissen, mit welcher Wahrscheinlichkeit er das Zika-Virus mit nach Hause bringt."

Dieser Beitrag ist im Original im Wissenschaftsmagazin Science erschienen, herausgegeben von der AAAS. Deutsche Bearbeitung: Christian Gschwendtner. Weitere Informationen: www.aaas.org

Zur SZ-Startseite

Lesen Sie mehr zum Thema