Süddeutsche Zeitung

Terrorismus in sozialen Netzwerken:Warum ein Anti-Propaganda-Gesetz heikel ist

  • Die EU-Kommission will ein Gesetz gegen Terrorpropaganda vorlegen. Damit will sie Internetunternehmen zwingen, entsprechende Inhalte zu löschen.
  • Bisher gab es nur eine freiwillige Selbstverpflichtung großer Unternehmen. Diese habe aber nicht die gewünschte Wirkung, sagte Sicherheitskommissar Julian King nun in einem Interview.
  • Kritiker fürchten, dass die Firmen aus Sorge vor Strafen auch legale Inhalte löschen und damit die freie Meinungsäußerung einschränken.

Von Jannis Brühl und Valentin Dornis

Videos von Enthauptungen, Aufrufe zum "Heiligen Krieg", Werbung für den "Islamischen Staat": Gegen solche Inhalte im Internet will die EU-Kommission künftig härter vorgehen. Dazu will sie Plattform-Anbieter wie Facebook oder Twitter gesetzlich verpflichten, terroristische Inhalte schnell zu identifizieren und zu löschen. Das sagte EU-Sicherheitskommissar Julian King der Zeitung Welt. Im September soll ein Gesetzesvorschlag dazu vorliegen.

Bisher hatte die EU-Kommission auf freiwillige Maßnahmen der Unternehmen gesetzt. Einem Verhaltenskodex zum Umgang mit "Hassrede" (PDF) hatten sich Facebook, Twitter, Google, Microsoft und später auch Instagram angeschlossen. Im "EU Internet-Forum" treffen sich seit 2015 EU, Polizeibehörden und betroffene Unternehmen. Die Politik nutzt das Forum, um den Unternehmen Druck zu machen, gegen bestimmte Inhalte vorzugehen. Justizkommissarin Vera Jourová kündigte schon im September vergangenen Jahres an, dass man auf härtere Maßnahmen setzen werde, sollten "die Tech-Unternehmen nicht die Erwartungen erfüllen". Inzwischen sei klar, dass die freiwilligen Maßnahmen "nicht genug Fortschritte" gebracht hätten, sagte Sicherheitskommissar King nun. EU-Mitgliedsstaaten beanstanden Bilder und Videos bei einer eigens eingerichteten "EU-Meldestelle für Internetinhalte", die die Meldungen an die Plattformen weitergibt.

Ein weiteres Problem ist King zufolge, dass einige Plattformen bei der freiwilligen Vereinbarung nicht mitmachen. Manche Anbieter hätten auch zu wenige Ressourcen und Fähigkeiten, um gegen terroristische Inhalte vorzugehen. "Dies alles führt dazu, dass solche Inhalte im Netz zunehmen, nach ihrer Löschung wieder auftauchen und sich von Plattform zu Plattform weiter verbreiten wie ein Virus", sagte King. Der geplante Gesetzentwurf stehe in Einklang mit den Grundrechten und der Meinungsfreiheit im Netz. Die Anti-Propaganda-Pläne der EU sind allerdings heikel.

Welche Rollen könnten Upload-Filter spielen?

King gab keine Details bekannt. Doch worauf die neuen Regeln hinauslaufen dürften, daran hat die Kommission in den vergangenen Monaten kaum einen Zweifel gelassen. Im März wünschten sich gleich vier Kommissare gemeinsam, die bisher freiwilligen Upload-Filter für Plattform-Betreiber stärker einzusetzen. Jenseits der "Großen" wie Facebook und Twitter könnten sie auch auf kleinere Plattformen ausgeweitet werden.

Die Filter funktionieren so: Wird ein Bild oder Video als Terrorpropaganda eingestuft, landet es in einer Datenbank, auf die alle Plattformen zugreifen. Dort wird ihm ein sogenannter Hash-Wert zugeordnet, eine bestimmte Zahlenkombination. Dieser dient dazu, die Datei zu identifizieren, sobald sie ein Nutzer wieder ins Netz hochlädt. Dann soll sie umgehend blockiert werden, also gar nicht mehr "ins Netz" gelangen beziehungsweise nur ganz kurz online sein, bevor sie gelöscht wird. 80 000 Bild- und 8000 Video-Dateien sind derzeit in der Datenbank der Unternehmen hinterlegt.

Warum könnte ein Anti-Propaganda-Gesetz so heikel sein?

Gegner dieser Filter warnen vor einer vollautomatisierten Zensur-Infrastruktur, die schrittweise auf andere Bereiche jenseits des Anti-Terror-Kampfes ausgeweitet werden könne. Während der Vorbereitung der Urheberrechts-Richtlinie war ein Versuch der Kommission im EU-Parlament gescheitert, Plattformen zu verpflichten, urheberrechtlich geschütztes Material automatisch zu filtern.

Diese Filter-Systeme wurden ursprünglich gegen Kinderpornografie entwickelt. Die ist allerdings in praktisch allen Fällen eindeutig identifizierbar. Wird die Technologie gegen nicht genauer definierte "Terrorpropaganda" eingesetzt, kann es dagegen zu Konflikten mit der Meinungsfreiheit kommen: Werden aus Versehen Aufnahmen von Gebeten gelöscht, oder dokumentarische Aufnahmen von Kriegsverbrechen, die das System für Propaganda einer Terrorgruppe hält? Die Frage ist, ob die Unternehmen nicht mehr Inhalte als nötig löschen und blockieren würden, und wer kontrolliert, ob die Polizei ihnen auch wirklich nur illegale Beiträge meldet, oder ob generell politisch unliebsame Beiträge betroffen sind.

Diese Entscheidungen könnten in letzter Instanz einem Menschen vorbehalten sein, allerdings geht die Entwicklung hin zu vollautomatisierten Systemen. Die Kommission hat auch deren Einsatz für möglich erklärt.

Die Löschfristen in dem Entwurf könnten sehr kurz ausfallen. Sowohl die EU als auch der deutsche Innenminister Horst Seehofer hatten in der Vergangenheit gefordert, die Unternehmen müssten innerhalb einer Stunde löschen, nachdem ihnen Inhalte gemeldet wurden. Das könnte zusätzlichen Druck zum "Overblocking", also dem unnötigen Blockieren völlig legaler Inhalte, auf die Unternehmen aufbauen.

Derzeit gibt es in den EU-Ländern zahlreiche unterschiedliche Regelungen zur Löschung von Inhalten. In Deutschland zum Beispiel das Netzwerkdurchsetzungsgesetz (NetzDG), das nicht nur terroristische und extremistische oder gewalttätige Inhalte umfasst, sondern auch Beleidigungen und "Hassrede". Einerseits hat die EU-Kommission mit Blick auf die ungeklärten Fragen des NetzDGs bislang erklärt, sie wolle legale Meinungsäußerungen schützen und nur eindeutig illegale Inhalte entfernen. Andererseits hat sie sich enthusiastisch über Filter-Systeme geäußert, auf die die Bundesregierung in ihrem Gesetz nach heftiger Kritik verzichtet hatte.

Mit Material von dpa

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4086975
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ.de/csi/rus
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.