Supercomputer der nächsten Generation Der Kosmos im Schaltkreis

Doppelte Rechenleistung alle zwölf Monate

Hochauflösende Galaxiensimulation, die eine großräumige Gasverteilung eine Milliarde Jahre nach dem Urknall zeigt

(Foto: Foto: Arman Khalatyan, AIP)

"Mit vielen Galaxien geht das noch verhältnismäßig gut, weil man den Weltraum in gleichmäßige Würfel zerlegen kann", sagt Stefan Gottlöber. In jedem simulierten Zeitschritt lieferte der Großrechner fast 70 Gigabyte Daten , soviel wie auf eine handelsübliche Festplatte passt.

Fünfzehn Zeitschritte haben die Physiker schon geschafft, 150 sollen es werden. In anderen Forschungsgebieten ist die Anforderung an die Programmierer deutlich größer.

Obwohl erst am Anfang dieses Jahres im Forschungszentrum Jülich der Supercomputer JUBL eingeweiht und soeben die Rechenkapazität von MareNostrum verdoppelt wurde, übersteigt die Nachfrage die verfügbare Rechenzeit um ein Vielfaches.

Zwei Drittel aller Anträge müssen in Barcelona abgelehnt werden. Angetrieben von dem Hunger nach Rechenleistung produzieren die führenden Computerhersteller weiterhin Rekordcomputer im Halbjahrestakt. Im Schnitt verdoppelt sich die Rechenleistung alle zwölf Monate. Zwei Großrechenanlagen haben bereits die 100-Teraflop-Grenze durchbrochen.

Die Programmierung wird deutlich einfacher

Die Forschungsagentur des amerikanischen Verteidigungsministeriums Darpa setzt sich mit einem großangelegten Forschungsprogramm jetzt weit höhere Ziele: Bis 2010 sollen erste Rechner mehr als vier Petaflops erreichen, unvorstellbare 4000 Billionen Operationen in der Sekunde.

Dazu erhalten die beiden Firmen Cray (deren Name von dem 1976 gegründeten, legendären Hersteller von Großrechnern stammt, aber im Jahr 2000 von der Tera Computer Corporation gekauft wurde) und IBM, die sechs der zehn weltweit schnellsten Supercomputer gebaut haben, jeweils fast 250 Millionen Dollar. Den angepeilten Geschwindigkeitsrekord halten Fachleute für erreichbar. "Petafloprechner werden vermutlich nächstes Jahr da sein - das ist jetzt mehr eine Frage des Geldes als der Technologie", sagt Ulrich Brüning, Professor für Rechnerarchitektur in Mannheim.

Die eigentliche Innovation beim Darpa-finanzierten Projekt liegt woanders: Es soll deutlich einfacher werden, die Großrechner optimal zu programmieren. Entwickler verwenden derzeit viel Zeit darauf, ihre Programme dem genutzten Gerät anzupassen.