Computer:Der Takt der zwei Herzen

Lesezeit: 4 min

Die Computer-Chips der Zukunft laufen nicht einfach nur schneller, sie enthalten mehrere Prozessoren.

Von Andreas Grote

Schneller, schneller, schneller - so lautete in den vergangenen Jahren die Devise der Hersteller von Computerprozessoren. Wie an ein Fließband, das umso schneller laufen konnte, je mehr Arbeiter daran malochten, packten die Chipdesigner immer mehr Transistoren für Logik und schnelle Zwischenspeicher auf die nur daumennagelgroße Siliziumunterlage.

Zur Hälfte Logik, zur Hälfte Cache-Speicher: Prozessor mit Taktfrequenz von 1,5 Gigahertz. (Foto: Foto:)

Und dann schickten sie die Daten auch noch mit immer höherer Taktgeschwindigkeit auf die Reise. Doch jetzt hat Intel, der weltweit größte Chiphersteller, die Notbremse gezogen. Die Entwicklung der für Anfang nächsten Jahres angekündigten Ausbaustufe des Pentium-4-Prozessors mit einer Taktfrequenz von vier Gigahertz wurde abgesagt.

Der Aufwand an das Chipdesign und die Kühlung des Prozessors wäre für den nur moderaten Geschwindigkeitszuwachs unverhältnismäßig hoch gewesen. Stattdessen bekommt es der Computerkäufer ab Mitte nächsten Jahres mit einer totalen Neuerung in seinem PC zu tun: In einem einzelnen Prozessor werden sich dann zwei Prozessorkerne, so genannte Cores, die Arbeit teilen.

Kein Protzen mit der Taktfrequenz mehr

Ähnlich wie Intel hat eine Allianz aus IBM, Sony und Toshiba angekündigt, unter dem Namen "Cell" einen Chip mit mehreren Kernen zu produzieren. Er soll besonders für die rechenintensive Verarbeitung von Multimedia-Dateien ausgelegt sein und um den Jahreswechsel 2005/2006 auf den Markt kommen. Die Abkehr vom traditionellen Protzen mit den Taktfrequenzen kam nicht überraschend.

Die großen Prozessorhersteller wie Intel, AMD, Sun oder IBM haben längst erkannt, dass sich allein mit einer ständigen Erhöhung der Taktfrequenz ein Computer nicht wesentlich schneller machen lässt.

"Neben dem Hitzeproblem ist die große Geschwindigkeitsdifferenz zwischen Prozessor und Arbeitsspeicher der wichtige Punkt", erklärt Chip-Entwickler Franz Hagebauer von Sun Microsystems. "Der Prozessor muss zu lange warten, bis die Daten aus dem Arbeitsspeicher bereit stehen, da nutzt ihm die hohe Taktung nichts."

Prozessor: Logik und Cache-Speicher

Um diese Zeitverzögerung auszugleichen, besteht ein Prozessor heute ohnehin nur noch zur Hälfte aus Logik, die andere Hälfte der Transistoren bildet den so genannten Cache-Speicher, einen ultraschnellen Pufferspeicher, der Zugriffe auf den langsameren Arbeitsspeicher (RAM) verringert.

Nur so konnte die Chipindustrie in jüngster Vergangenheit überhaupt noch das ungeschriebene Moore'sche Gesetz erfüllen. Intel-Mitbegründer Gordon Moore hatte 1965 prophezeit, dass sich im Zuge der rasanten Weiterentwicklung alle 18 bis 24 Monate die Anzahl der Transistoren pro Chipfläche und somit auch die Rechengeschwindigkeit der Prozessoren verdoppele.

Das zugrunde liegende Problem ist ein Katz- und Mausspiel. Um Leistungsfähigkeit und Tempo eines Prozessors zu erhöhen, steigerten die Chipdesigner bislang ständig die Anzahl der Transistoren. Insgesamt 125Millionen davon enthält ein moderner Pentium-4-Prozessor.

Damit die Chips dabei nicht immer größer werden, mussten die Transistoren immer kleiner werden. Als zum Beispiel durch eine Umstellung der Fertigungstechnik die so genannte Strukturbreite der Elemente von 130 Nanometer auf 90 Nanometer sank, passten doppelt so viele Transistoren auf fast die gleiche Fläche - ins Herz des Chips.

Der verlorene Strom

"Gleiche Fläche bedeutet gleiche Herstellungskosten, mehr Transistoren bedeuten mehr Funktionen und höhere Rechenleistung", sagt Christian Anderka von Intel. Doch die scheinbar wundersame Vermehrung hat einen Nachteil: Die Sperrschicht im Transistor aus Siliziumdioxid ist nur noch gut einen Nanometer dick, das entspricht fünf Atomlagen.

Dadurch kommt es verstärkt zu Stromverlusten, so genannten Leckströmen, die inzwischen ein Viertel des Stromverbrauchs eines Chips ausmachen und ihn zusätzlich aufheizen. Eine weitere Verkleinerung der Transistoren ist also im Prinzip möglich, aber offenbar nur realistisch , wenn die Designer ihr bisheriges Konzept aufgeben: Bei 250 Millionen Schaltelementen auf gleicher Fläche wäre der Prozessor kaum noch zu kühlen.

Die Lösung sehen die Chiphersteller in der Verteilung der Rechenaufgaben auf mehrere Fließbänder. Anstatt wie bei einem Single-Core-Prozessor den Programmcode nacheinander abzuarbeiten, widmen sich jetzt zwei Chips parallel der Aufgabe. Ein Dual-Core-Prozessor besteht aus zwei architektonisch identischen Prozessorkernen mit eigenem Cache, die sich die Fläche eines herkömmlichen Chips teilen und so kompatibel sind zu aktuellen Motherboards.

Und da die Grundfläche des Chips wegen der verringerten Strukturbreite nahezu unverändert bleibt, die zwei Kerne aber die Anzahl der Transistoren darauf verdoppeln, folgt die Architektur auch wieder Moores Gesetz.

Fix, aber nicht doppelt so fix

Allerdings ist ein Dual-Core-Chip nicht doppelt so schnell wie sein Vorgänger mit einem Herzen. Um die beiden dicht nebeneinander sitzenden Kerne nicht zu überhitzen, sind sie 500 bis 1000Megahertz niedriger getaktet.

Auch müssen sich beide Kerne die Datenleitungen zum Arbeitsspeicher teilen. Trotzdem zeigten erste Demonstrationen von Intel und AMD, dass die Dual-Prozessoren bei gleicher oder gar geringerer Stromaufnahme bis zu 50Prozent schneller sind als ein höher getakteter Single-Core und nicht mehr Hitze produzieren.

Da sich zudem je nach Prozessor einzelne Cores abschalten lassen - etwa wenn der Besitzer eines hochgezüchteten Spiele-PCs einen Brief schreibt -, lässt sich sogar Strom sparen. Auch sind zwei Kerne besser zu kühlen als ein an seiner Leistungsgrenze arbeitender Single-Core. Erste Prozessoren mit neuer Architektur haben Intel und AMD für Mitte 2005 angekündigt. Nach Intels eigener Prognose wird bereits Ende 2006 in 40 Prozent der Desktop-PCs und 70Prozent der Notebooks ein Dual-Core-Prozessor laufen.

Die Vorteile des neuen Designs kommen jedoch nur zum Tragen, wenn die Software mitspielt. Sie muss die Aufgaben der einzelnen Programme an die beiden Cores verteilen. Damit sich die Softwarehersteller darauf einstellen konnten, hat Intel bereits 2002 die Hyper-Threading-Technik (HT) eingeführt.

Der Computer macht dann der Software vor, sie hätte es mit zwei Prozessoren zu tun. Neben Windows XP unterstützen eine ganze Reihe von Programmen aus verschiedenen Bereichen HT und sind damit für Dual-Core ausgelegt. "Es wird jedoch eine Weile dauern, bis sich die Softwarefirmen angepasst haben", sagt Sun-Entwickler Hagebauer.

Parallel forschen die Chipdesigner daran, den Chip mit eher konventionellen Mitteln schneller zu machen. Experten und auch Moore selbst erwarten, das ungeschriebene Gesetz damit noch zehn bis fünfzehn Jahre einhalten zu können, "denn die Technologie dafür ist bereits in warmen Tüchern", sagt Hagebauer.

Den Elektronen den Weg ebnen

So ebnen die Chipdesigner den Elektronen immer bessere Wege, um den Takt noch weiter zu steigern. Dazu tragen die immer engeren Strukturbreiten bei, aber auch Veränderungen am Material, aus dem die Chips gefertigt werden. Gestrecktes ("strained") Silizium erhöht die Beweglichkeit der Elektronen um bis zu 70 Prozent.

Längerfristig wollen die Entwickler die Sperrschicht der Transistoren aus besser isolierenden Dielektrika wie Zirkon- oder Titandioxid fertigen, nach Angaben von Intel könnte das die Leckströme um mehr als den Faktor 100 reduzieren. Allerdings sollen die neuen Materialien frühestens 2007 eingesetzt werden, wenn der Herstellungsprozess auf 45 Nanometer Strukturbreite umgestellt wird.

Später kommen Transistoren aus anderen Materialien und eine neue Lithographietechnik - der Chip der Zukunft hat mehrere Milliarden Transistoren, die 22 Nanometer messen und mit 20 Gigahertz Daten verarbeiten.

Doch weit mehr als diese technischen Details dürfte die Käufer zunächst eine Kombination zweier Eigenschaften faszinieren: Denn die Rechenarbeit lässt sich gleich auf vier virtuelle Prozessoren verteilen, wenn die beiden Kerne eines Doppelchips noch Hyper-Threading beherrschen. "Wir planen das für Firmen-Server, aber ob das auf dem normalen Desktop-PC kommt, ist noch offen", sagt Intel-Sprecher Anderka.

Beim "Cell"-Prozessor der IBM-Sony-Toshiba-Allianz hingegen ist genau diese Verbindung vorgesehen. So viele Prozessoren gibt es sonst nur in Supercomputern.

© SZ vom 7.12.2004 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: