Was Facebook, Microsoft, YouTube und Twitter freiwillig gegen die Verbreitung extremistischer Inhalte getan haben, ist der EU-Kommission nicht genug. Wie mehrfach angedroht, will sie die Unternehmen nun mit einer EU-Richtlinie dazu verpflichten, von offizieller Stelle entdeckte und gemeldete Terrorpropaganda innerhalb einer Stunde zu löschen. Bei "systematischem Versagen" drohen ihnen Bußgelder von bis zu vier Prozent ihres globalen Jahresumsatzes. "Eine Stunde ist das entscheidende Zeitfenster, in dem der größte Schaden angerichtet wird", sagte Kommissionspräsident Jean-Claude Juncker.
Im bisher nur auf Englisch vorliegenden Entwurf, dem der Ministerrat und das EU-Parlament zustimmen müssen, werden die betroffenen Anbieter definiert als "Anbieter von Diensten der Informationsgesellschaft, die daraus bestehen, von ihren Nutzern zur Verfügung gestellte Informationen zu speichern und Dritten zugänglich zu machen." Darunter dürften Plattformbetreiber wie die oben genannten US-Unternehmen fallen, nicht aber Cloud-Anbieter für die private Nutzung. Ob auch Websites mit einem Kommentarbereich wie zum Beispiel SPIEGEL ONLINE darunter fallen, ist unklar. Im Entwurf heißt es, die betroffenen Anbieter müssten "eine signifikante Nutzerzahl in einem oder mehreren Mitgliedstaaten" haben.
Terrorinhalte wiederum werden im Entwurf definiert als Informationen, die terroristische Straftaten bewerben oder verherrlichen", zur Beteiligung an solchen Straftaten oder zur Unterstützung terroristischer Gruppierungen aufrufen oder Anleitungen zu terroristischen Taten darstellen.
Julia Reda: Upload-Filter unvermeidlich - Dem Entwurf zufolge sollen die Mitgliedstaaten spezielle Stellen einrichten, die entsprechende Inhalte identifizieren, Sanktionen gegenüber den Unternehmen verhängen und deren Widersprüche bearbeiten, wenn sie gemeldete Inhalte als nicht extremistisch einstufen.
Die Internetunternehmen wiederum werden verpflichtet, Maßnahmen zu ergreifen, solche Inhalte selbst zu entdecken, zügig zu entfernen oder den Zugriff darauf zu blockieren - und das erneute Hochladen einmal gelöschter Terrorinhalte zu verhindern. "Die Nutzung automatischer Werkzeuge" wird dabei im Entwurf ausdrücklich erwähnt, eine menschliche Kontrolle dieser Werkzeuge aber ebenso verlangt, jedenfalls dort, wo es "angemessen" oder nötig ist, eine detaillierte Überprüfung der gemeldeten Inhalte vorzunehmen.
Nutzer sollen informiert werden - außer, wenn nicht - "Ohne Upload-Filter kann kein Provider diese Verpflichtungen erfüllen", schrieb Julia Reda, EU-Abgeordnete der Piratenpartei, auf Twitter. Upload-Filter sind Programme, die Inhalte schon beim Hochladen durch einen Nutzer untersuchen und die Veröffentlichung verhindern, wenn sie illegale Inhalte darin erkennen. Solche Filter kommen bereits im Kampf gegen Darstellungen von sexuellem Missbrauch an Kindern und auch gegen Terrorpropaganda zum Einsatz: Einmal identifizierte illegale Inhalte werden in Form eines kryptografischen Zahlenwerts (Hash) gespeichert und in einer gemeinsamen Datenbank hinterlegt. Jeder neue Upload wird mit der Datenbank abgeglichen, bereits gekennzeichnete Inhalte sofort entdeckt.
Reda kämpft bereits gegen den Einsatz vergleichbarer Technik zur Verhinderung von Urheberrechtsverletzungen im Internet - unter anderem, weil sie mehr blockierten, als nötig wäre. Denn keine Software könne zuverlässig zwischen urheberrechtlich geschütztem Material und zulässigen Zitaten oder Parodien unterscheiden. Die Abstimmung über die Urheberrechts-Reform im Parlament findet am heutigen Mittwoch statt.
Nutzer, deren Inhalte als Terrorpropaganda identifiziert und gelöscht oder blockiert werden, sollen dem Richtlinienentwurf zufolge darüber informiert werden. Es sei denn, die zuständigen Behörden entscheiden, dass dies aus "Gründen der öffentlichen Sicherheit" nicht geschehen soll. In so einem Fall sollen die betroffenen Nutzer nichts erfahren.
Oliver Süme, Vorstandsvorsitzender des eco - Verband der Internetwirtschaft, hält starre Löschfristen für "reine Symbolpolitik". Sie suggerierten, "dass Behörden bislang vergeblich versuchen, terroristische Inhalte durch die Betreiber zeitnah löschen zu lassen. Das Gegenteil ist der Fall." Auch Mozilla und die Bürgerrechtsorganisation Digitale Gesellschaft sprachen sich umgehend gegen den Entwurf aus, weil die Richtlinie einen verstärkten Einsatz ineffektiver Filtersoftware zur Folge hätte.
spiegel
Tags: