Report zu Bot-Traffic Wie Maschinen das Web ausnutzen

Die Infrastruktur des Webs wird nicht mehr mehrheitlich von Menschen, sondern von angeleiteten, beauftragten Maschinen benutzt. Das Netz kommuniziert zunehmend mit sich selbst - nicht immer mit den besten Absichten.

Von Bernd Graff

Am 12. März 1989, vor etwas mehr als einem Vierteljahrhundert also, stellte Tim Berners-Lee in der Forschungseinrichtung Cern das von ihm entwickelte Hypertext-System für vernetzte Computer vor. Er nannte es damals eine "großräumige Hypermedia-Initiative zur Informationsbeschaffung". So sperrig das vielleicht auch schon damals geklungen haben mochte, seine Entwicklung stellt die Urform eines World Wide Web dar, wie wir es heute kennen. Es ist dann aber nicht ganz unwichtig, nicht von dem Web zu sprechen, das Berners-Lee in die Welt gesetzt hat, sondern von einem Web.

Denn obwohl die grundlegenden Protokolle und Systemsprachen, die netzfähige Rechner miteinander kommunizieren lassen, sich auch 25 Jahre später noch von dieser Hypermedia-Initiative ableiten, befindet sie sich von Anbeginn an im Zustand permanenter Mutation. Wenn man so will, ist das Web nichts anderes als eine sich rasant vollziehende Technik-Evolution im Zeitraffer. Diese Tatsache drückt sich aus in der Veränderung seines Zugangs, seiner Angebote, seiner Nutzung und Nutzbarkeit - aber inzwischen auch in einer Veränderung der Teilnehmer selbst.

"Nicht-menschliche Einheiten"

Im Szenario des Tim Berners-Lee sind die vernetzten Rechner lediglich Mittel zur Kommunikation. Kommuniziert wird in dem Szenario selbstverständlich noch von Menschen. Und so wird es ja auch immer noch gedacht: Man stellt sich Menschen vor Monitoren, Terminals, auch Smartphones-Displays vor, die aktiv durch den Cyberspace surfen. Die technische Infrastruktur, die das ermöglicht, wartet in diesem Bild dumpf und stumpf auf die Eingaben derjenigen, die sie nutzen. Berners-Lee interessierte eben die "Informationsbeschaffung", und die setzte die Such-Aktionen interessierter Menschen voraus.

Dem Erfinder wäre nicht in den Sinn gekommen, dass es nicht einmal 25 Jahre dauerte, bis nicht mehr mehrheitlich Menschen seine Infrastruktur nutzen, sondern angeleitete, beauftragte Maschinen: die Robots. Sie können sehr viel mehr, sehr viel ausdauernder und sehr viel schneller Informationen beschaffen, als Menschen eine Tastatur bedienen. Und so ist es seit dem März 2012: Damals machte der Datenverkehr, den programmierte Gerätschaften verursachen, erstmals die Mehrheit, nämlich 51 Prozent des gesamten Internet-Traffics aus. Das Gerät informiert sich inzwischen selber, heißt das. Aber was genau will es denn überhaupt wissen?

Incapsula, eine auf Internetsicherheit spezialisierte Firma, veröffentlichte im Frühjahr 2012 einen ersten sogenannten "Bot Traffic Report", der auswies, dass "nicht-menschliche Einheiten" häufiger im Netz zugange sind als lebende Personen. Anderthalb Jahre später, im Dezember 2013, ergab ein neuer Report dieser Firma, dass nun sogar schon 61,5 Prozent des Datenaufkommens im Internet von emsigen Roboter-Strukturen stammen sollen. Leider verfolgt nur weniger als ein Drittel dieses Maschinenverkehrs gute Absichten.