Das Erbe des Internets:Zurück auf Start

Lesezeit: 4 min

Als das Internet entstand, rechnete noch niemand mit der enormen Entwicklung. Weil die Schwächen immer deutlicher hervortreten, soll jetzt ein neues Netz her.

Helmut Martin-Jung

Joseph "Lick" Licklider hatte einen Traum. Ein "intergalaktisches Netz" solle Computer befähigen, nicht mehr nur als bloße Rechenknechte zu dienen, denen man ein paar Zahlen zum Knacken hinwarf und die ein paar Stunden später ein paar Lochstreifen ausspuckten.

"Gehen Sie zurück bis auf Los" (Foto: Foto: ddp)

Was der Psychologe und Computerexperte Anfang der sechziger Jahre des vergangenen Jahrhunderts anstrebte, lief vielmehr darauf hinaus, die Maschinen als Hilfsmittel bei der Kommunikation von Menschen einzusetzen.

Technik vom alten Schlag

Der Traum ging mit dem Internet mehr oder weniger Erfüllung. In den Jahrzehnten, die seit seiner Erfindung vergangen sind, hat das Netz der Netze die Welt verändert. Doch seine technische Basis ist im Wesentlichen so geblieben, wie es sich seine Pioniere ausgedacht hatten.

Einige tragende Pfeiler des weltumspannenden Systems ächzen deshalb bereits heute unter der Datenlast. "Es ist wie bei einem Rennwagen, der nur normale Autoreifen hat", sagt Kurt Tutschku, der an der Universität Würzburg im Bereich Computerwissenschaften forscht.

Er und ein Kreis aus Spezialisten arbeiten in einem europäischen "Network of Excellence" am Internet der Zukunft, dem "Future Generation Internet". Ihre wichtigste Frage: Reicht es, dem Boliden neue Reifen aufzuziehen - oder muss nicht doch ein ganz neues Auto gebaut werden?

Die Wissenschaftler stehen vor einem Berg an Problemen: Anbieter wie die Videoplattform YouTube, aber auch die Anwender im Mitmach-Internet produzieren riesige Datenmengen. Aber die Grundlagen des Netzes, das diese Daten transportieren soll, sehen so etwas eigentlich gar nicht vor.

Noch immer werden wie zu den Zeiten der Internetpioniere alle Daten vor dem Versand in handliche Päckchen zerhackt und mit Absender und Adresse versehen, bevor sie auf ihre Reise durch die verschlungenen Pfade des wuchernden Netzes gehen. Immer neue Bypässe und Behelfslösungen haben zu einer verwirrenden Vielfalt geführt, die nur noch wenige Experten zu deuten wissen.

Und dass einmal Milliarden mobiler Geräte genauso Daten würden austauschen wollen wie die paar schrankgroßen Computer in den Sechzigern, das spielte in den Plänen für das intergalaktische Netz auch keine Rolle.

Was ist in 20 Jahren?

"Das Internet funktioniert zwar eigentlich im Moment noch ganz gut", sagt Dipankar Raychaudhuri, Direktor des Winlab an der Rutgers University in New Jersey, "aber was ist in 20 Jahren?". Zwar ließen sich für viele Einzelfragen Lösungen finden, aber zusammengenommen gebe es doch viele Dinge, die es nahelegten, von Grund auf neu zu denken.

"Das Internet wurde zu einer Zeit entwickelt, als es darin noch keine Bedrohung gab", nennt Raychaudhuri ein Beispiel. Neue Konzepte müssten die inzwischen gewonnenen Erfahrungen berücksichtigen. Raychaudhuri, der hauptsächlich im Bereich der mobilen Kommunikation forscht, hält es für eine Entscheidung zu früh.

Man wisse einfach noch nicht, ob es nötig sein wird, ein Paralleluniversum zu errichten, auf das dann irgendwann umgeschaltet wird. "Ich denke aber, es wird in die Richtung gehen." Und darin ist er sich mit Vinton Cerf, einem der Väter des Internets, einig.

Bildstörung beim Arzt

Klar ist, dass jetzt geforscht werden muss, bevor die Probleme nicht mehr in den Griff zu kriegen sind. Denn es geht ja nicht nur um lustige Filmchen von YouTube, deren Empfang zeitweise nur ruckelnd funktioniert, sondern um Geschäftsprozesse und andere kritische Anwendungen, die in steigendem Maße von einem funktionierenden Internet abhängen.

Eine neue Infrastruktur muss vor allem leistungsfähiger und zuverlässiger sein. "Nehmen Sie zum Beispiel eine Videokonferenz für medizinische Diagnose", erläutert der Würzburger Forscher Kurt Tutschku, "niemand kann Ihnen garantieren, dass das immer funktioniert."

Selbst in den Kernbereichen des Internets komme es heute zu Ausfällen. Dem alten Netz wird eine Servicequalität abverlangt, für die es nicht gebaut ist.

Um das zu verbessern, müssen seiner Ansicht nach neue Wege eingeschlagen werden. "Anfangs waren das einfache Protokolle", sagt Tutschku, "aber später kamen immer mehr Leistungsmerkmale dazu."

Die Folge: Die Computer, die den Weg der einzelnen Datenpakete im Netz steuern sollen, sogenannte Router, werden immer komplexer und damit immer teurer zu betreiben. "Wir brauchen Mechanismen, die das vereinfachen." Doch bis dato gebe es dafür noch keine Standards.

Solche Standards, das könnten beispielsweise Verfahren sein, die Geräte selbständig mit einem Netz verbinden, ohne dass der Benutzer dafür durch komplizierte Menüs navigieren oder ellenlange Sicherheitscodes eingeben muss - eine wesentliche Voraussetzung dafür, dass das vernetzte Heim irgendwann einmal aus dem Status des Prototypen heraustreten kann.

Das unsichtbare Netz

Ziel ist es, das Netz für seine Benutzer quasi unsichtbar zu machen, so der Pariser Forscher und Vorsitzende des europäischen Networks of Excellence Daniel Kofman: "Umgebungsintelligenz wird die Regel sein".

Diese Umgebung wird auch von einer Vielzahl mobiler Geräte bestimmt sein. Handys zählen ebenso dazu wie in einigen Jahren möglicherweise vernetzte Autos. Das veraltete Namens- und Adressierungssystem des Internets, das von wenigen stationären Geräten ausgeht, kommt da einfach nicht mehr mit.

Weil die jetzige Netzarchitektur so große Probleme mit ihren Altlasten habe, erreichten heute schon mobile Geräte manchmal nur zehn Prozent des möglichen Datendurchsatzes.

Die meisten Denkansätze für das Internet der Zukunft basieren dagegen darauf, dass die meisten Nutzer künftig drahtlos online gehen werden, ohne sich Gedanken darüber machen zu müssen, ob sich ihr Gerät auch ins richtige Netz eingebucht hat.

Dass dies irgendwann einmal möglich sein wird, daran forschen IT-Experten weltweit. "Die Systeme sind viel zu komplex, als dass ein Institut das allein bewältigen könnte", sagt Kurt Tutschku. Allein im europäischen Netzwerk arbeiten deshalb gefördert von der EU 56 Institute aus 18 Ländern zusammen.

Während die einen sich Gedanken machen über bessere Protokolle, tüfteln die anderen an Mathematik-Modellen, um die Netzauslastung zu berechnen. Dass sein Traum einmal solche Dimensionen annehmen würde, das hatte nicht einmal der Visionär Licklider vorausgesehen.

© SZ vom 25.04.2007 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: