Automatisierte Programme:Drei Vorschläge, um Bots zu kontrollieren

Humanoid Diving Robot OceanOne is seen during its presentation at the History Museum in Marseille

Bots und Roboter sind zwar nicht genau das Selbe - aber beide lösen bei manchen Menschen Angst vor der Automatisierung aus (Symbolbild).

(Foto: REUTERS)

Programme versenden blitzschnell Zehntausende E-Mails oder analysieren Unmengen an Fotos. Doch der Staat muss sie genau im Auge behalten - und selbst mit Polizei-Bots auf Streife gehen.

Gastbeitrag von Martin Schallbruch

Bots sind ins Gerede gekommen. Als Folge der öffentlichen Debatte über die Beeinflussung von Wahlen durch Social Bots haben diese einen denkbar schlechten Ruf. Höchste Zeit, sich mit ihnen genauer zu befassen.

Bots sind digitale Helfer für den digitalen Alltag. Es handelt sich dabei um Computerprogramme. Sie arbeiten Regeln ab und erledigen Geschäfte für ihre menschlichen Auftraggeber. Bots können auf Informationsbestände im Internet zugreifen, lernen und so ihre Aufträge beim nächsten Mal noch besser ausführen. Die Programme kann man auch als Menschenverstärker und Komplexitätsreduzierer bezeichnen.

Sie geben Menschen die Möglichkeit, digital mehr zu bewirken, als sie es eigenhändig könnten. Niemand kann in kürzester Zeit Zehntausende E-Mails versenden, jeden Tag die ganze Presse durchsehen oder Fotos nach bestimmten Kriterien an verschiedene Empfänger versenden. Bots können das, für einen und statt eines Menschen. Sie verstärken seine Wirkungsmöglichkeiten.

Und sie helfen ihren Auftraggebern, die Komplexität des digitalen Alltags zu reduzieren. Wenn die Vision vom Smart Home, dem vernetzten Haushalt, Wirklichkeit werden soll, dann spielen Bots dabei eine wichtige Rolle. Wann soll die Heizung hoch- oder heruntergefahren werden, wann das Licht angeschaltet, die Wlan-Sendeleistung erhöht, die Waschmaschine angeschaltet werden, wenn die Besprechung im Büro eine Stunde länger dauert? Wenn man das Smart Home will, werden Bots zu dessen Steuerung unverzichtbar sein.

Aber es gibt eben auch eine dunkle Seite: Bots können wirksame Cyberangriffe ausführen. Social Bots in sozialen Netzwerken sind verantwortlich für die Verbreitung von falschen Nachrichten und Hasstiraden. Viele Bots agieren, ohne dass erkennbar ist, ob ein realer Mensch handelt oder ein Bot. Bots haben das Potenzial für gewaltigen Missbrauch. Es ist aber nicht die Technik, die hierfür verantwortlich ist. Es sind vielmehr die Absichten ihrer Auftraggeber und die Sorgfalt, mit der sie Bots erstellen.

Es liegt in der Natur solcher Programme, dass die Wirkung ihres Handelns nicht dauerhaft und vollständig überblickt werden kann. Das gilt erst recht, wenn Bots dazulernen. Wer ein Bot so einrichtet, dass die Markise eingerollt wird, sobald der Wetterdienst Regen vorhersagt, macht das Handeln seines Menschenverstärkers abhängig von externen Faktoren. Wenn der Server des Wetterdienstes gehackt wurde und falsche Daten liefert, wird auch das Bot unsinnige Dinge tun.

Automatisierte Programme: Martin Schallbruch, 51, ist stellvertretender Direktor des Digital Society Institute an der European School of Management and Technology (ESMT) in Berlin.

Martin Schallbruch, 51, ist stellvertretender Direktor des Digital Society Institute an der European School of Management and Technology (ESMT) in Berlin.

(Foto: oh)

Wenn Computer den Verkauf von Konzerttickets in die Hand nehmen

So wie Social Bots die öffentliche Meinung insgesamt beeinflussen, so wirken auch andere Bots über den unmittelbaren Bereich des Auftraggebers hinaus. Gleich ob es Absicht ist oder mangelnde Sorgfalt: Schäden durch Bots sind unvermeidbar. Wenn die Markise durch ein Unwetter zerstört wird, ist das ärgerlich und teuer, aber darüberhinaus wenig bedeutsam. Spätestens jedoch wenn Hunderttausende Markisen falsch eingerollt werden, wird das Verhalten von Bots ein Thema für die Gemeinschaft - und ein Handlungsauftrag für den Staat.

In den Vereinigten Staaten hat ein erster Fall bereits zu einer Gesetzesänderung geführt: Präsident Barack Obama unterzeichnete im Dezember 2016 den BOTS Act, - ein Gesetz, das den Missbrauch von Bots im Kartenvorverkauf für Veranstaltungen verhindern soll: Kriminelle kauften unmittelbar nach Beginn des Vorverkaufs Eintrittskarten für populäre Veranstaltungen in großer Stückzahl auf, um sie dann, wenn das Ereignis ausgebucht war, auf dem Schwarzmarkt teuer abzusetzen. Mit Hilfe von Bots konnten die Täter den Eindruck erwecken, dass sehr viele Menschen jeweils nur ganz wenige Karten kauften, obwohl tatsächlich nur ein einzelner Betrüger Tausende Tickets erwarb.

Der BOTS Act - die Abkürzung BOTS steht hier für Better Online Ticket Sales - verbietet den Einsatz solcher Bots, setzt Strafen fest und ermächtigt die Behörden, gegen die Betrüger vorzugehen. Das Beispiel gibt eine Richtung vor: Es wird Aufgabe des Staates sein, das Wirken von Bots zu beobachten, schädliche Folgen zu erkennen und zu bekämpfen.

Wichtigstes Ziel ist hierbei Zurechenbarkeit. Schäden durch Bots können nur vermieden oder ausgeglichen werden, wenn ihr Handeln einem Urheber zuzurechnen ist. Zurechenbarkeit ist einer der Grundpfeiler unseres Rechtssystems. Wenn Bots als Menschenverstärker digitale Geschäfte erledigen, muss ihr Handeln dem Urheber zurechenbar sein.

Erst Facebook, Twitter und Co. ermöglichen Social Bots

Was konkret kann der Staat tun, um Bots zu überwachen und Zurechenbarkeit zu sichern? Erstens muss er die Wirkung von Bots systematisch beobachten. Das ist ein fachlicher Auftrag an Forscher und an die Behörden, die für die Beobachtung und Abwehr von Gefahren in bestimmten Lebensbereichen verantwortlich sind, von Energie über Gesundheit bis zu Umwelt und Verkehr. Es ist aber auch ein polizeilicher Auftrag, Auswirkungen von Bots auf die öffentliche Sicherheit zu erkennen.

Zweitens wird (auch) im Zusammenhang mit Bots die Rolle von Plattformen im Internet zu diskutieren sein. Bots existieren in der Regel auf Plattformen oder mit deren Unterstützung. Erst Facebook, Twitter und andere ermöglichen Social Bots. Auch Smart-Home-Bots werden auf den Plattformen entsprechender Anbieter programmiert. Die Plattformen stellen die Werkzeuge bereit zur Bot-Erstellung, die Programmierschnittstellen und auch die Datenbestände, aus denen Bots lernen können.

Die Plattformen müssen dem Staat helfen

Plattformen müssen verpflichtet werden, bei der Beobachtung der Bots zu helfen und die Zurechnung von Verantwortung zu ermöglichen. Mindestens die marktbeherrschenden Plattformen im Internet sind mehr als private digitale Dienstleistungen: Sie stellen einen digitalen Raum bereit, in dem öffentliches Leben stattfindet. Sie haben eine besondere Verantwortung, Sicherheit und Ordnung in diesem Raum zu erhalten und dem Staat zu helfen.

Drittens muss der Staat auch sein eigenes Instrumentarium weiterentwickeln, um Gefahren abzuwehren. Dazu gehört auch der Einsatz von Technik. Menschenverstärker brauchen Kontrollverstärker. So wie einst die Nutzung schneller Fahrzeuge durch Kriminelle schnellere Polizeifahrzeuge erforderte, so benötigen wir automatische Verfahren, die Schäden durch Bots erkennen und abwehren helfen. Plattformen werden dafür spezielle Programmierschnittstellen schaffen müssen, damit Wissenschaftler ihre Wirkung erforschen und Journalisten über Bots recherchieren können. Und damit zukünftig auch Polizei-Bots mit Sonderrechten im digitalen Raum auf Streife gehen können.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: