bedeckt München

Forum:Supercomputer helfen im Krisenfall

Coronavirus - Intensivstation Universitätsklinikum Essen

Schnelle Hilfe ist in der Corona-Krise lebenswichtig. Künstliche Intelligenz kann einen großen Beitrag zur Bekämpfung der Epidemie leisten.

(Foto: Fabian Strauch/dpa)

Bei Epidemien und nach Naturkatastrophen geht es um Zeit. Hoch- und Höchstleistungsrechner können Krisenstäbe bei der Suche nach schnellen Schutzmaßnahmen unterstützen.

Von Dieter Kranzlmüller

Zwei Monate nach Ausbruch der Corona-Epidemie in Wuhan hatten chinesische Wissenschaftler die Genom-Sequenz des COVID-19-Virus entdeckt. Weitere zwei Monate später waren die ersten 41 Wirkstoffe gegen das Virus identifiziert. Sie werden inzwischen getestet: Ohne die Rechenkraft von Supercomputern wären solche Forschungsergebnisse im Eiltempo heute nicht denkbar.

Dieter Kranzlmüller leitet das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften und lehrt Informatik an der Ludwig-Maximilians-Universität München. Er ist spezialisiert auf High Performance Computing sowie dessen Verbindung mit Quantentechnologie und künstlicher Intelligenz, außerdem auf Virtual und Mixed Reality.

(Foto: Alessandro Podo/oh)

Aus Zigtausenden von Prozessoren und Rechnerknoten aufgebaut, simulieren diese Systeme nicht nur das Infektionsverhalten von Viren oder testen Hunderttausende von medizinischen Wirkstoffen. Mit ihnen modellieren Physiker, Seismologen, Meteorologen, Biologen aus Daten die Ursachen von Naturkatastrophen: Das ist Grundlagenforschung auf höchstem Niveau. Dieses Wissen präzisiert die Planung von Sofortmaßnahmen und von langfristigem Schutz. Deshalb sollte High Performance Computing (HPC) im Notfall berücksichtigt werden. Im Krisen- oder Katastrophenfall muss der Zugang zu den staatlich geförderten Hoch- und Höchstleistungsrechnern für Wissenschaftler beschleunigt werden, damit Politik und Gesellschaft in diesen Zeiten konzertiert Strategien auf Basis von wissenschaftlichen Erkenntnissen entwickeln können.

Supercomputer und Daten ermöglichen detailgetreue Simulationen

HPC ist zwar schon länger ein Teil der Forschung, insbesondere in der datenintensiven Astro- und Grundlagenphysik oder in der Thermodynamik. Durch detailliertere Messungen und interdisziplinäre Experimente wächst auch in den Lebenswissenschaften die Menge von Forschungsdaten exponentiell, sodass sie nur noch von Supercomputern verarbeitet werden können. Gleichzeitig verbreiten Forscher ihre Ergebnisse und Datengrundlagen online immer schneller in aller Welt, auf dass Kollegen diese mit weiteren Ergebnissen aus anderen Projekten kombinieren. Auch so wachsen Datenmengen - und Wissen.

Die großen Rechnerkapazitäten der Supercomputer sowie wachsende Datenmengen bilden die Basis für immer genauere Modellrechnungen und detailgetreue, hoch aufgelöste Simulationen für die Grundlagenforschung in beinahe allen Wissenschaftsdisziplinen, insbesondere in den Naturwissenschaften. So erfassen und begreifen wir immer mehr medizinische Symptome, molekulare Prozesse oder Naturphänomene. Supercomputer ermöglichen erst das Arbeiten mit künstlich intelligenten Systemen und Mustererkennungen, die aus Big Data noch mehr Wissen ziehen.

Dass diese computergestützte und mit Millionen geförderte Forschung den Menschen nützt, zeigt sich gerade jetzt in der Corona-Krise: Das EU-Projekt "CompBioMed" hat das Ziel, einen digitalen Zwilling des Menschen zu schaffen und Medizin zu verbessern. In den vergangenen Jahren entstanden dafür an europäischen Universitäten rund 20 HPC-Programme und -Algorithmen für Supercomputer, die beispielsweise das Geschehen in Blutbahnen verdeutlichen oder die Funktionsweisen von Proteinen und Enzymen simulieren. Mit ihnen wurden auch Corona-Viren analysiert, Forscher entdeckten so mögliche Angriffspunkte für Medikamente und Impfstoffe. Mit diesem Wissen entwickelten Mediziner, Mathematiker und Informatiker die Algorithmen, mit deren Hilfe heute die Supercomputer Bibliotheken aus Millionen möglicher Medikamente, pflanzlicher und tierischer Substanzen sowie chemischer Verbindungen screenen, um jene Stoffe zu identifizieren, die das für COVID-19 verantwortliche SARS-Cov-2-Virus hemmen, sich zu vermehren.

Grundlagenforschung mit Hilfe von HPC spürt auch den Ursachen von Naturkatastrophen nach: Wissenschaftler aus München sammelten 2018 aus unterschiedlichsten Quellen Messdaten zu einem Erdbeben mit Tsunami bei Palu in Indonesien. Mit eigenen Modellrechnungen bestimmten sie Ursachen jener Flutwelle, die nur drei Minuten nach dem Beben die Küstenstadt fast vollkommen zerstörte. Ihre Simulation kann nun helfen, vergleichbare seismologische und geologische Regionen aufzufinden und besser zu schützen. Für das Projekt "ClimEx" entstanden am Leibniz-Rechenzentrum in Garching aus Daten zu den bayerischen Hochwassern von 1999, 2002, 2005 und 2013 eine Reihe von Wettersimulationen, die jetzt belastbare Prognosen zum Verlauf von Extremwetterlagen liefern. Werden starke Regenfälle vorhergesagt, könnten Städte und stark betroffene Regionen damit akute Schutzmaßnahmen besser planen.

Supercomputing liefert nützliche Tools - und Kontakte

Das sind nur einige Beispiele, was HPC der Grundlagenforschung ermöglicht. Mit diesen Ergebnissen und den dabei entstehenden Anwendungen, Programmen oder Algorithmen können Wissenschaftler in Krisenzeiten schneller und gezielter Daten verarbeiten, Szenarien modellieren und Strategien entwickeln, die Leben retten. Der Bund und die Länder Baden-Württemberg, Bayern und Nordrhein-Westfalen fördern in Deutschland bereits drei Höchstleistungsrechenzentren, in Europa stehen weitere vier Supercomputing-Zentren zur Verfügung. Oft werden diese Ressourcen als Spielwiese einer ausgewählten Forschergemeinde und als Ausgangspunkt für technische Rekorde gesehen. Für manche Naturwissenschaftler ist der Einsatz von HPC in ihrer Disziplin noch ungewohnt. Und auch Politik und Gesellschaft rechnen viel zu selten mit den schnellsten Computern ihres Landes und den Spezialisten, die sie betreiben. Das aber kann sich jetzt ändern - die Corona-Krise führt einen wichtigen Beweis, wie Supercomputing bei der Bewältigung von Krisen unterstützt.

HPC ist ein Forschungsgebiet, aber zugleich auch eine innovative Dienstleistung für die Grundlagenforschung und damit indirekt für Medizin und Katastrophenschutz. Das Gauss Centre for Supercomputing (GCS), der Zusammenschluss der Höchstleistungszentren Garching, Jülich und Stuttgart, vergibt bereits gemeinsam Rechnerkapazitäten und bietet aktuell Forschern rund um die Erkundung von Corona und COVID-19 beschleunigten Zugang zu den Supercomputern "Hawk", "Jewels" und "SuperMUC-NG". Die dabei entstehenden Abläufe sollten für künftige Notfälle etabliert und optimiert werden. Spezialisten aus den Höchstleistungsrechenzentren können Expertenrunden aus Politik, Wirtschaft, Gesellschaft bereichern und die Ursachenforschung sowie Planung mit Hilfe der Rechenleistung von Supercomputern beschleunigen. Im Umfeld von HPC sammeln sich außerdem die Kontakte zu Wissenschaftlerinnen und Experten aus Europa und der Welt, die bereits Naturphänomene oder Epidemien erforschen: Vernetzung im technischen wie im persönlichen Sinn ist ein wertvoller Zusatznutzen beim Supercomputing.

© SZ
Zur SZ-Startseite