50 Jahre Computerchip:Streichholzschachtel auf dem Fußballfeld

Lesezeit: 3 min

Die Welt wäre langsamer und langweiliger, hätte nicht ein gewisser Jack S. Kilby vor 50 Jahren eine zündende Idee gehabt.

Verena Wolff

Langweilig muss ihm damals gewesen sein, dem jungen Elektrotechniker. 1958 begann Jack S. Kilby mit seinem Job bei Texas Instruments - als Neueinsteiger bekam er keinen Sommerurlaub. Dafür hatte er das Labor für sich allein. Für sich und seine Gedanken.

300 Millimeter groß ist eine Chipwafer-Scheibe heute. (Foto: Foto: dpa)

Er dachte vor allem nach über ein Problem, dass unter Technikern "Tyranny of numbers" genannt wurde: Das Problem, dass neue Designs immer mehr Komponenten aufwiesen, die sich immer schwieriger verdrahten ließen.

Schaltungen bestanden immer noch aus verschiedenen Bauelementen auf einer Platine. Nachteil war, dass höhere Rechenleistung nur durch zusätzliche Komponenten erreicht werden konnte - Großrechner wurden also immer größer. Kilby hatte die Idee, Transistoren, Widerstände und Kondensatoren zu einem Bauteil zusammenzufügen.

Gut sechs Wochen vergingen zwischen der Idee und dem ersten Exemplar einer funktionierenden Schaltung auf einem Halbleiter; ein Stück Germanium mit Kabeln auf Glas, etwa so groß wie eine Büroklammer. Das war am 12. September 1958.

Kommerziell war die Erfindung kein Renner. Zunächst.

Doch Jack Kilby glaubte an den Erfolg. 1966 schließlich wurden die integrierten Schaltkreise erstmals beim Bau von Taschenrechnern eingesetzt. Die wurden fortan immer kleiner und leistungsfähiger - und schließlich auch ein Verkaufsschlager.

Spektakuläres passierte dann allerdings erst ein paar Jahre später, in einem verschlafenen Tal unweit von San Francisco. Die Firma Intel, unlängst gegründet, bekam einen Auftrag aus Japan - elf Spezialchips sollten es sein. Intel setzte den Entwickler Ted Hoff auf das Projekt an - und der hatte einen wahren Geistesblitz. Statt die einzelnen Teile fest zu verdrahten, erfand er einen Chip, der programmiert werden und somit unterschiedliche Aufgaben übernehmen konnte.

Intel nannte ihn 4004. Die Rechte gehörten den Japanern, den die hatten dafür bezahlt. Aber sie erkannten die Reichweite der Erfindung nicht. Intel kaufte sich die Rechte zurück - und war das erste Unternehmen, das Mikroprozessoren anbot.

Damit war Bahnbrechendes geschehen - da waren sich die Experten einig. "Ein Markt war neu kreiert", sagt Alexander Düsener, Marketing Director beim Softwarehersteller Cadence Design Systems. Das sogenannte Random Access Memory (RAM) war erfunden und wurde ausgebaut. Es gab Rechner mit 286-, 386-, 486- und schließlich mit Pentium-Prozessoren.

Taschenrechner, Computer, jedes Auto, jede Waschmaschine, jedes Hörgerät ist heute mit den kleinen Chips ausgestattet. Nicht mit einem oder tausend. "Heute passen gut zwei Milliarden Transistoren auf einen Chip, der etwa so groß ist wie ein Daumennagel", sagt Hans-Jürgen Rehm, Sprecher bei IBM in Stuttgart. Und es braucht Software wie die des Herstellers Cadence, mit der die Belegung neuer Chips gesteuert wird.

Früher, vor ein paar Jahrzehnten noch, passten Computer in einen Saal - und sie produzierten so viel Wärme wie ein ganzes Kraftwerk. Das allerdings war schon fortschrittlich - denn diese Computer liefen schon mit Chips. Rechenmaschinen - und nichts anderes ist ja der Computer - wurden schon wesentlich früher erfunden: 1623 ließ sich etwa ein gewisser Wilhelm Schickard die erste mechanische Rechenmaschine, die sogenannte Rechenuhr, patentieren. Den Vorläufer dessen, was heute auf nahezu jedem Büroschreibtisch steht, lieferte ein Deutscher namens Konrad Zuse.

Jack S. Kilby nimmt vom schwedischen König Carl Gustaf den Nobelpreis entgegen. (Foto: Foto: dpa)

Er baute 1941 mit dem Z3 den ersten funktionsfähigen, programmierbaren Rechner mit sogenannten binären Gleitkommazahlen und Boolescher Logik. Was sich so kompliziert anhört, ist noch heute die grundlegende Technik in jedem Prozessor.

Und was, wenn Kilby den Chip nicht erfunden hätte? Und Intel ihn nicht weiterentwickelt hätte? "IBM gäb's trotzdem, die Maschinen würden nur anders aussehen", meint Rehm. Sehr viel größere, monströsere und langsamere Anlagen wären das wohl.

Stattdessen hat heute eine Armbanduhr mehr Rechenleistung als ein Großrechner vor 50 Jahren. Auch Handys, MP3-Player, elektronisch gesteuerte Maschinen - auch die meisten in einem durchschnittlichen Haushalt - oder Autos mit intelligenter Fahrzeugtechnik sind ohne die Chips nicht mehr vorstellbar.

Und Jack Kilby? Er arbeitete bis 1970 bei Texas Instruments, ließ sich dann aber beurlauben, um als unabhängiger Erfinder weiterzuarbeiten. 60 Patente hatte er angemeldet, darunter das auf den Taschenrechner und den Thermodrucker. Im Jahr 2000 wurde ihm die wohl größte Ehre zuteil: Er erhielt zusammen mit dem Deutsch-Amerikaner Herbert Kroemer und dem Russen Schores I. Alfjorow den Nobelpreis für Physik für seinen Beitrag zur Entwicklung des Integrierten Schaltkreises.

Die Chipindustrie ist unterdessen an einem Punkt angekommen, an dem sie bald an die Grenzen des physikalisch Machbaren kommt. "Die Teile werden noch kleiner, noch leistungsfähiger, noch mehr wird integriert", sagt Düsener. Elektronische Pflaster mit drahtlosen Kommunikationschips, die Daten sammeln oder Medikamentendosen abgeben, sind keine Zukunftsmusik mehr.

Eine ganze neue Wissenschaft haben die Chips mit sich gebracht - die Nanotechnologie, die Lehre der kleinsten Teilchen. Die braucht es auch, um Neues zu entwickeln in einer Welt, die immer kleiner wird. Denn die Dimensionen sind abenteuerlich: Ein Transistor auf einem Chip ist - bildlich gesehen - so groß wie eine Streichholzschachtel auf einem Fußballfeld. Wenn man ziemlich weit oben sitzt, versteht sich.

© sueddeutsche.de/bön - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: