bedeckt München
vgwortpixel

Kolumne: Lex digitales:Filter gegen Hass

An dieser Stelle schreiben jeden Mittwoch Karoline Meta Beisel (Brüssel), Christoph Giesen (Peking), Marc Beise, Helmut Martin-Jung (beide München) und Jürgen Schmieder (Los Angeles) im Wechsel.

Wie kann die EU verhindern, dass Terroristen ihre Inhalte über Internetplattformen verbreiten, ohne dabei die Meinungsfreiheit einzuschränken?

Der Livestream dauerte 35 Minuten und hatte gerade mal fünf Zuschauer. Nach der Übertragung jedoch schauten mehr als 2000 Menschen auf der Videostreaming-Plattform Twitch jenes Video, das der Attentäter von Halle mit einer Helmkamera von seinem Anschlag gefilmt hatte. Das Vorgehen war ganz ähnlich wie beim Anschlag im neuseeländischen Christchurch kurz zuvor - auch damals konnten Zuschauer die Tat live im Netz verfolgen; allein Facebook entdeckte insgesamt etwa 1,5 Millionen Videos von dem Angriff.

Die Europäische Kommission kann solche Taten nicht verhindern. Sie will aber zumindest verhindern, dass die Täter solcher Anschläge im Netz zum Star werden - und vielleicht zum Vorbild für Gleichgesinnte, so wie das Attentat in Christchurch ein Vorbild für den Täter von Halle war. Schon im September 2018 schlug die EU-Behörde darum ein Gesetz zur "Verhinderung der Verbreitung terroristischer Online-Inhalte" vor. Demnach sollten Internetplattformen unter Androhung von hohen Bußgeldern verpflichtet werden, terroristische Inhalte auf Anforderung der zuständigen Behörden schnell von der Seite zu nehmen. Man sollte meinen, dass der Gesetzentwurf bald verabschiedet werden könnte - wer hat schon etwas dagegen, wenn solch grausame Videos aus dem Netz verschwinden? Aber so leicht ist die Sache nicht: In entscheidenden Punkten sind sich Parlament und Mitgliedstaaten nicht einig.

Da wäre zum einen die Frage, wie weit die Macht der nationalen Behörden reichen soll, solche Löschanordnungen auszusprechen. Kommission und Rat sind für eine EU-weite Lösung: Dann könnte zum Beispiel eine deutsche Behörde veranlassen, dass Aufnahmen von einem Terroranschlag nicht nur in Deutschland, sondern in der ganzen EU gelöscht werden sollen.

Im EU-Parlament geht das manchen Abgeordneten zu weit. "Sonst könnte es passieren, dass sich in der EU der kleinste gemeinsame Nenner in Sachen Meinungsfreiheit durchsetzt", sagt etwa Patrick Breyer von der Piratenpartei, der im EU-Parlament zur Fraktion der Grünen gehört. Er fordert, dass die Behörden eines Mitgliedstaates nur Inhalte von Anbietern mit Sitz in ihrem eigenen Land entfernen oder sperren lassen können - und sich wegen ausländischer Anbieter an die jeweiligen Behörden des Landes wenden müssen.

Nicht nur in der EU-Kommission fürchtet man jedoch, dass das Zwischenschalten einer weiteren Behörde dem Instrument einiges an Wirksamkeit nehmen würde: "Die Löschung nur innerhalb des eigenen Territoriums des anordnenden Mitgliedsstaates hätte lediglich ein Geoblocking zur Folge, dass durch einfache Verfahren umgangen werden kann", heißt es etwa aus dem Bundesinnenministerium. Auch fürchtet man, dass sich die Löschung verzögern könnte, müsste man erst noch die Behörden in dem Land anrufen, in dem die Server des Webdienstes stehen. Im Gegenzug aber müsste dem Innenministerium zufolge sichergestellt sein, dass sich Betroffene gegen solche staatlich angeordneten Löschungen auch effektiv wehren können.

Parlament und Länder streiten aber auch darüber, für wen das neue Gesetz überhaupt gelten soll. Nur für die Facebooks und Youtubes dieser Welt, also große Plattformen, auf denen besonders viele Videos hochgeladen werden - oder für alle? Kritiker fürchten, dass es zum Beispiel für kleine, nicht-kommerzielle Foren schwierig sein könnte, rund um die Uhr für potenzielle Löschanordnungen ansprechbar zu sein, die dann innerhalb von nur einer Stunde ausgeführt werden sollen.

Terroristen könnten auf kleinere Plattformen ausweichen, um ihre Inhalte zu verbreiten

In der Kommission verweist man darauf, dass diese Ein-Stunden-Regel nur für solche Plattformen gelten solle, auf deren Webseiten schon zuvor Terrorpropaganda entdeckt wurde - also nicht schon, wenn dort zum ersten Mal solch ein Inhalt auftaucht. Grundsätzlich soll das Gesetz aber alle binden: "Wenn kleine und mittelständische Unternehmen von der Regel ausgenommen sind, weichen Terroristen auf diese aus, um ihre Inhalte zu verbreiten, wie wir es in der Vergangenheit schon beobachtet haben", sagt ein Sprecher der EU-Behörde. "Inhalte können sich viral verbreiten, ganz egal, auf was für eine Plattform sie ursprünglich hochgeladen wurden."

Viel Streit dürfte es in den kommenden Wochen außerdem um ein Thema geben, das im Gesetzentwurf als "proaktive Maßnahme" bezeichnet wird: Plattformen, die schon mit terroristischen Inhalten zu tun hatten, sollen demnach nicht auf Löschanordnungen aus Behörden warten, sondern selbst aktiv werden, um zu verhindern, dass solche Inhalte überhaupt hochgeladen werden. Kritiker des Vorhabens benutzen lieber einen Begriff, der bereits die Debatte um die Urheberrechtsreform geprägt hat: Uploadfilter. Die Argumente sind ähnlich wie damals, aber diesmal geht es nicht um Raubkopien, sondern um Terrorvideos: "Ein Filter versteht keinen Kontext", sagt Patrick Breyer. Hängen bleiben könnten etwa auch Beiträge, die sich wissenschaftlich oder journalistisch mit terroristischer Propaganda beschäftigen. Die EU-Kommission bestreitet nicht, dass diese Möglichkeit besteht - verweist aber auch hier auf die Möglichkeit, sich gegen staatliche angeordnete Löschungen zu wehren.

Letztlich geht es um die Frage, was schwerer wiegt: wenn Terrorpropaganda nicht erkannt und im Netz geteilt werden kann - oder wenn legale Inhalte erst verzögert veröffentlicht werden, unter Umständen erst nach dem Beschreiten eines oft mühsamen Beschwerdeweges? Wenn Parlament und Mitgliedstaaten für dieses Problem eine gemeinsame Antwort finden, könnte es mit dem Gesetz doch noch recht schnell gehen.