Supercomputer der nächsten Generation:Der Kosmos im Schaltkreis

Um zu verstehen, wie die Galaxien und Sterne entstanden sind, blicken Wissenschaftler am Astrophysikalischen Institut Potsdam nicht nur in den Weltraum, sondern auch tief in die Schaltkreise eines riesigen Computers.

Philipp Berens

Ihr gesamtes Wissen speisen die Physiker in den Rechner ein, der die Entstehung des Weltalls auf numerische Weise nachvollzieht - ein rein digitales Gebräu aus 20 Milliarden virtuellen Sternen verklumpt sich dabei zu einer Struktur, die dem heutigen Kosmos ähnelt.

Supercomputer der nächsten Generation: MareNostrum, der größte Supercomputer Europas

MareNostrum, der größte Supercomputer Europas

(Foto: Foto: S. Gottlöber, AIP)

"Berücksichtigt man nicht nur Schwerkraft und Gasdruck, sondern auch die Entstehung einzelner Sterne, ist das sehr aufwändig", sagt der Potsdamer Astrophysiker Stefan Gottlöber. "Wir wollen verstehen, wie 300.000 Jahre nach dem Urknall aus winzigen Dichteschwankungen im Kosmos die Galaxien entstanden", ergänzt sein Doktorand Arman Khalatyan.

Auf normalen Computern ist solch ein gewaltiges Projekt nicht durchführbar: 114 Jahre hätte ein Schreibtisch-PC Tag und Nacht rechnen müssen um die Datenmassen zu verarbeiten.Auch in anderen Forschungsgebieten sind die Anforderungen an die Rechenleistung in den vergangenen Jahren enorm gewachsen.

Biologen simulieren chemische Reaktionen in Körperzellen, Klimaforscher prognostizieren die Auswirkungen des Klimawandels mit immer zuverlässigeren Modellen. Alle benötigen sie Supercomputer - die Spitzenklasse der weltweit verfügbaren Rechner. Anders als zu Zeiten der legendären Mainframes bestehen moderne Superrechner heute aus zahlreichen vernetzten Prozessoren, die parallel arbeiten.

52 Tage statt 114 Jahre

Europas derzeit schnellste Großrechenanlage und die fünftschnellste der Welt steht in Barcelona, umrahmt vom kühlen Gemäuer einer ehemaligen Kirche. Auch die Physiker um Stefan Gottlöber haben auf dem "MareNostrum" getauften Supercomputer Rechenzeit gebucht.

Dessen 10.240 Prozessoren kommen auf eine Rechenleistung von 63 Teraflops, das bedeutet 63 Billionen Rechenoperationen in einer Sekunde, was etwa 20.000 mal schneller ist als ein handelsüblicher PC. Gottlöbers kosmische Simulation schafft MareNostrum auf 800 Prozessoren in 52 Tagen statt in 114 Jahren, die ein PC bräuchte.

Supercomputer sind schnell, weil viele Prozessoren gleichzeitig an einem Problem knabbern. Um diese Form der Arbeitsteilung zu optimieren, müssen die Forscher ihre Rechenschritte in passende Päckchen stückeln. Jeder Prozessor des Superrechners erledigt dann ein Teilproblem - nur hin und wieder tauschen die Rechenkerne Daten aus, um sich auf dem neuesten Stand zu halten.

Der Kosmos im Schaltkreis

Doppelte Rechenleistung alle zwölf Monate

Supercomputer der nächsten Generation: Hochauflösende Galaxiensimulation, die eine großräumige Gasverteilung eine Milliarde Jahre nach dem Urknall zeigt

Hochauflösende Galaxiensimulation, die eine großräumige Gasverteilung eine Milliarde Jahre nach dem Urknall zeigt

(Foto: Foto: Arman Khalatyan, AIP)

"Mit vielen Galaxien geht das noch verhältnismäßig gut, weil man den Weltraum in gleichmäßige Würfel zerlegen kann", sagt Stefan Gottlöber. In jedem simulierten Zeitschritt lieferte der Großrechner fast 70 Gigabyte Daten , soviel wie auf eine handelsübliche Festplatte passt.

Fünfzehn Zeitschritte haben die Physiker schon geschafft, 150 sollen es werden. In anderen Forschungsgebieten ist die Anforderung an die Programmierer deutlich größer.

Obwohl erst am Anfang dieses Jahres im Forschungszentrum Jülich der Supercomputer JUBL eingeweiht und soeben die Rechenkapazität von MareNostrum verdoppelt wurde, übersteigt die Nachfrage die verfügbare Rechenzeit um ein Vielfaches.

Zwei Drittel aller Anträge müssen in Barcelona abgelehnt werden. Angetrieben von dem Hunger nach Rechenleistung produzieren die führenden Computerhersteller weiterhin Rekordcomputer im Halbjahrestakt. Im Schnitt verdoppelt sich die Rechenleistung alle zwölf Monate. Zwei Großrechenanlagen haben bereits die 100-Teraflop-Grenze durchbrochen.

Die Programmierung wird deutlich einfacher

Die Forschungsagentur des amerikanischen Verteidigungsministeriums Darpa setzt sich mit einem großangelegten Forschungsprogramm jetzt weit höhere Ziele: Bis 2010 sollen erste Rechner mehr als vier Petaflops erreichen, unvorstellbare 4000 Billionen Operationen in der Sekunde.

Dazu erhalten die beiden Firmen Cray (deren Name von dem 1976 gegründeten, legendären Hersteller von Großrechnern stammt, aber im Jahr 2000 von der Tera Computer Corporation gekauft wurde) und IBM, die sechs der zehn weltweit schnellsten Supercomputer gebaut haben, jeweils fast 250 Millionen Dollar. Den angepeilten Geschwindigkeitsrekord halten Fachleute für erreichbar. "Petafloprechner werden vermutlich nächstes Jahr da sein - das ist jetzt mehr eine Frage des Geldes als der Technologie", sagt Ulrich Brüning, Professor für Rechnerarchitektur in Mannheim.

Die eigentliche Innovation beim Darpa-finanzierten Projekt liegt woanders: Es soll deutlich einfacher werden, die Großrechner optimal zu programmieren. Entwickler verwenden derzeit viel Zeit darauf, ihre Programme dem genutzten Gerät anzupassen.

Der Kosmos im Schaltkreis

Supercomputer der nächsten Generation: MareNostrum befindet sich in der ehemaligen Kapelle auf dem Campus der polytechnischen Universität von Barcelona

MareNostrum befindet sich in der ehemaligen Kapelle auf dem Campus der polytechnischen Universität von Barcelona

(Foto: Foto: AIP)

Gleichzeitig statt nacheinander

Ein Plan von Cray sieht vor, das Verhältnis umzukehren: Der Computer passt sich der Anwendung an. Indem die Prozessoren selbst für die beste Verknüpfung untereinander sorgen, könnte der wissenschaftliche Wissensdurst effizienter gestillt werden als durch pure Rechenkraft.

Das Cray-System macht sich zu Nutze, dass Prozessoren auf bestimmte Rechenoperationen spezialisiert sind. Allzweck-Prozessoren aus normalen PCs führen Befehle nacheinander aus - sie eignen sich gut für Alltagsanwendungen, in denen ganz unterschiedliche Probleme gelöst werden müssen. Der Vektorprozessor kann dagegen den gleichen Rechenschritt auf vielen Datenpaketen gleichzeitig durchführen. Er zieht beispielweise fast simultan fünf von den Zahlen eins bis zehn ab.

Ein dritter Prozessortyp kann sogar mehrere Dinge gleichzeitig erledigen. Da Prozessoren meistens schneller fertig sind, als sie neue Daten aus dem Speicher geliefert bekommen, verbringen sie viel Zeit mit Warten. Der "mehrfädige" Prozessor hat den Überblick über mehrere Arbeitsabläufe gleichzeitig und kann in der Wartezeit an einem anderen Problem weiterrechnen.

Digitale Handlanger

Obwohl heute Supercomputer meist aus den günstigen, handelsüblichen Standardchips aufgebaut sind, könnten einige Probleme vom Einsatz der spezielleren Prozessoren profitieren. Leider haben Wissenschaftler nur selten für jede Anwendung den richtigen Typ zur Hand.

Cray plant ein anpassungsfähiges System, in dem unterschiedliche Prozessortypen zum Einsatz kommen sollen. Jede Anwendung soll von den Prozessortypen profitieren, die für sie am besten geeignet sind. Sogar einzelne Programmteile könnten auf verschiedenartige Chips verteilt werden. Eine neuartige Software soll automatisch Rechenschritte erkennen, die sich beispielsweise gut auf Vektorprozessoren ausführen lassen und ihnen diesen zuweisen.

Darüberhinaus gebe es noch die Möglichkeit, verstärkt so genannte Coprozessoren zum Einsatz zu bringen, sagt Ulrich Brüning. In diesen digitalen Handlangern lassen sich spezialisierte Rechenoperationen einprogrammieren, die nicht im Hauptprozessor vorhanden sind. "Der Prozessor stößt dann den Coprozessor an und sagt: Mach mal den Kleinkram. In der Zeit kann der Hauptprozessor schon was anderes machen", erklärt Brüning.

Simluationen 50 mal schneller

Auch für physikalische Simulationen des Universums gibt es bereits solche Coprozessoren, sie berechnen die Anziehungskraft zwischen zwei Teilchen. "Wir schicken vorne Teilchenpositionen rein und bekommen hinten die Gravitationskraft raus", sagt Rainer Spurzem vom Astrophysikalischen Recheninstitut am Zentrum für Astronomie der Universität Heidelberg. Der spezialisierte Chip macht Simulationen wie die von Stefan Gottlöber mehr als fünfzigmal schneller.

Beim "adaptiven Supercomputing", wie Cray seine Entwicklung nennt, könnten solche Coprozessoren auch in Großrechnern zum Einsatz kommen. "Im Prinzip ist das denkbar", sagt Rainer Spurzem.

Crays Neuentwicklung mit dem vorläufigen Namen "Cascade" würde dann bei Anwendungen, für die ein nützlicher Coprozessor vorhanden ist, dessen Fähigkeiten rekrutieren. Der Einblick, den Physiker in die Entstehung des Universums gewännen, wäre um einiges detailreicher.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: