Christchurch Attentat – Uploadfilter keine Ideallösung

Copyright: Screenshot Elisa-Marie Obiltschnig

51 Todesopfer. Nahezu jeder war in den letzten Sekunden seines Lebens auf Brenton Tarrants Facebook-Profil live zu sehen. Funktionsfähige Uploadfilter hätten die Tat verhindern können, oder? Die Regierungschefs Ardern und Macron wollen Online-Plattfromen rechenschaftspflichtig machen, die Justizkommissarin der EU spricht sich nach dem Attentat klar für Artikel 13 aus und Facebook ist auf der Suche nach Verbesserungen.

Die Tat

Brenton Tarrant ist live. Er fährt mit seinem Auto durch Christchurch. Auf Facebook kann nun jeder sein Gesicht sehen. Aber auch das Sicherheitsrader von Facebook kann ihn wahrnehmen. Was seine Zuseherinnen und Zuseher jedoch nicht wissen, ist, dass die Masjid-al-Noor-Moschee in der Innenstadt des neuseeländischen Christchurch das Ziel ist. Mit einer Schnellfeuerwaffe dringt er während des Freitaggebets in die Moschee ein. 42 Tote. Weiter geht es nach Linwood ins Islamic Center, wo Tarrant weiter um sich schießt. Insgesamt tötet der Neuseeländer am 15. März 2019 51 Personen. Und Teile davon sind in einem 16 Minuten und 56 Sekunden andauernden Live-Video auf Facebook zu sehen.

Facebook selbst spricht von nicht einmal 200 Zuseherinnen und Zusehern, die das Video live gesehen haben sollen. Die erste Meldung eines Nutzers soll erst zwölf Minuten nach dem Ende des Videos geschehen sein. Wäre ein früherer Hinweis gekommen, so hätte man schneller reagieren können.

Angekündigt hat der Christchurch-Attentäter seine Tat auf Plattformen wie 8chan. „So Leute, es ist Zeit, mit Shitposten aufzuhören und sich im Real Life einzusetzen“, verkündet er großspurig und merkt an einen Angriff gegen die „Invasoren“ zu starten und ihn via Facebook live zu zeigen. Er war online. Er hat es angekündigt. Er hat es gemacht. Die Community hat ihm zugejubelt. Keiner hat es verhindert.

Die Software

Dass trotzdem wohl weit mehr als nur die von Facebook anfangs angegebene Zahl Ausschnitte aus diesem Video gesehen haben, liegt an den vielen Usern, die das Video herunterladen und/oder bearbeiten, indem sie beispielsweise eine neue Tonspur darunterlegen und wieder neu veröffentlichen. Ein klassisches Schneeballsystem, bei dem das soziale Netzwerk zu diesem Zeitpunkt bereits machtlos ist. Das facebook’sche System wurde schlichtweg ausgetrickst. Schuldlos offenbar nicht, denn eine Software des Unternehmens und ein menschlicher Content-Moderator hätten nach der Prüfung des Videos dieses sofort blockieren sollen. Gelöscht wurde es erst, als die neuseeländische Polizei Facebook darauf aufmerksam machte.

Facebook wurde nach dem Attentat hart kritisiert.
Copyright: Elisa-Marie Obiltschnig

Facebook, aber auch beispielsweise Alphabet Googles YouTube besitzen Upload-Filter, die genau solche Videos, wie das des Attentäters von Christchurch verhindern sollten. Diese Software wurde über Jahre mit tausenden grausamen Bildern von Terror, Vergewaltigung oder Kinderpornographie gefüttert. Nun sollen mehr als 10.000 Live-Videos pro Minuten gescannt werden. Sofern die Software etwas erkennt, wird es an einen Content-Moderator weitergeleitet. Dieser muss entscheiden: löschen oder lassen? Im Fall Benton Tarrant hat daher entweder das System versagt oder ein Mitarbeiter eine falsche Entscheidung getroffen.

Weshalb nicht einfach alles löschen? Das Live-Format von Facebook zählt zu den beliebtesten Funktionen des sozialen Netzwerks. Schlichtweg alles zu löschen wird wohl bedeuten User zu verlieren, die keinerlei terroristische Absichten bei ihren Live-Videos haben.

Die Reaktionen

Nur wenige Stunden nach dem Anschlag stand Facebook wieder einmal in der Kritik. Jacinda Ardern, die neuseeländische Premierministerin forderte allgemein Online Dienste auf mehr gegen terroristische und extremistische Inhalte zu tun. Ebenso meldete sich der französische Präsident Emmanuel Macron zu Wort. Seine Forderung an Facebook & Co.: Live-Stream-Zugänge sollen drastisch eingeschränkt werden. In seinem „Christchurch Appell“ zusammen mit Jacinda Ardern will er Internetplattformen für gefährliche Inhalte rechenschaftspflichtig machen.

Die amtierende Justizkommissarin der EU, Vera Jourova, positioniert sich eindeutig pro Uploadfilter. Diese hätten nämlich schon die Radikalisierung des Christchurch Attentäters verhindern können. Ebenso soll es mittels „proaktiver Maßnahmen“ nicht mehr dazu kommen, dass terroristische Inhalte erneut auf eine Plattform hochgeladen werden können. Der Blick geht dabei über Facebook hinaus. So sollen Uploadfilter für alle in Europa tätigen Anbieter von Diensten mit Kommentarfunktion und Posten von Videos, Bilder, etc. gelten.

Grundsätzlich gilt es festzuhalten, dass beispielsweise ein Attentat, das auf Facebook gestreamt wird – also Inhalte in Echtzeit – zu erkennen sein müsse. Laut  Vera Jourova sei das noch „Science Fiction“. Doch Unternehmen wie Google oder Facebook würden mit Hochdruck an Technologien arbeiten. So sollen die noch aktuellen Dysfunktionalitäten bald in den Griff bekommen werden. Ein Schritt dafür wurde ebenso mit dem „Christchurch Call“ getan. Diesen unterzeichneten einige Regierungen aus der ganzen Welt und große Konzerne. Dabei handelt es sich um eine unverbindliche Erklärung zum Kampf gegen Extremismus im Netz.

Die Veränderungen

Am 26. März wurde trotz viel Kritik vom Europäischen Parlament letztlich die Urheberrechtsreform verabschiedet. Dieser Beschluss erreichte daher auch das Inkrafttreten des viel diskutierten Artikel 13. Als besonders umstritten galt jedoch der Part des Uploadfilters. Beschlusslage ist, dass Nutzer, die Inhalte bereitstellen, nicht mehr als Hoster gesehen werden sollen. Sie werden als Anbieter von eigenen Inhalten definiert. YouTube ist in Bezug auf die Haftung nun gleichzusetzen mit Anbietern wie Netflix, Spotify oder TikTok. Google arbeitet aktuell schon mit einem Uploadfilter-System, die vor allem bei Musik und Film gut funktionieren, wenn im Vorhinein Prüfsummen der Dateien hinterlegt worden sind. Für Bilder oder Texte gestaltet es sich offenbar komplizierter. Da ist Microsoft seit vielen Jahren dabei einen von ihnen entwickelten Fingerabdruck für Fotos zu verbessern. Das aktuellste Programm von Microsoft heißt PhotoDNA und soll vor allem die Verbreitung von Missbrauchsbildern im Internet stoppen, indem ein Abgleich mit Bildern einer zentralen Datenbank erfolgt. Textfilter arbeiten im Gegensatz dazu mit einer Scanningsoftware, die zwar erkennt, ob die Originaldatei manipuliert wurde, aber Schwierigkeiten bei der Erkennung des Textzusammenhangs hat.

Microsoft veröffentlichte 2015 PhotoDNA.
Copyright: Pixabay/efes

Im Mai veröffentlichte Facebook ein Statement in Bezug auf die Folgen des Christchurch Attentats. Es werden 7,5 Millionen Dollar in eine neue Partnerschaft mit Forschern investiert, um insbesondere Bild- und Videoanalysen zu verbessern. In weiterer Folge will das Unternehmen aus dem Silicon Valley nun auch die Live-Funktion als Reaktion auf beispielsweise terroristische Aussagen sperren. Facebook publizierte im August Teile der Uploadfilter-Technik. So wurden zwei Technologien frei zugänglich gemacht, mit denen Darstellungen von Kindesmissbrauch, Terrorpropaganda und Gewaltinhalten erkannt und verhindert werden sollen. Algorithmen destillieren Hashes – digitale Fingerabdrücke- aus Bildern und Videos. Gespeichert wird das alles in einer eigenen Datenbank auf die kooperierende Unternehmen Zugriff haben. Möchte nun jemand etwas uploaden, das schon vermerkt ist, wird der Upload blockiert. Mehr als 200.000 Inhalte sind in der Datenbank laut erstem Transparenzreport, erfasst.

Nachdem Zuckerberg Macrons Pläne – eine ähnliche Regulierung wie das Deutsche NetzDG einzuführen – zur Eindämmung von Hassbotschaften im Internet als beispielhaft für ganz Europa bezeichnet hat, unterstützt Facebook nun auch seit Juni die französische Justiz. Hassbotschaften sollen bekämpft werden, da das soziale Netzwerk zukünftig die IP-Adressen derjenigen, die Botschaften äußern an die Justiz weitergeben will. Laut des französischen Ministers für Digitales, Cedric O, hat sich Facebook erstmalig für eine derartige Maßnahme bereiterklärt.

Über die Autorin

Elisa-Marie Obiltschnig studiert, nachdem sie ihre Matura an der Handelsakademie in Krems absolvierte, Medienmanagement an der Fachhochschule Sankt Pölten. Als Schwerpunkte hat sie Marketing & Sales und Content Management gewählt. Kontaktmöglichkeit unter mm171051@fhstp.ac.at.