In den vergangenen Jahren hat „YouTube“ auch mit fragwürdigen Inhalten viel Aufsehen erregt. SUMO hat sich mit Medienrechtsanwalt Bernhard Heinzl und Christoph Poropatits, ehemaliger„YouTube“-Mitarbeiter, darüber unterhalten.
Die Logan Paul Affäre
Am 31.12.2017 stellte Logan Paul ein fragwürdiges Video auf seinen „YouTube“-Kanal mit damals laut „Youtubers.me“ über 15 Millionen AbonnentInnen. In diesem Video wanderte Paul mit einigen Freunden im Aokigahara Wald am Fuße des Mount Fuji, der auch als „SuicideForest“ bezeichnet wird, weil er unter JapanerInnenein beliebter Ort ist, um sich das Leben zu nehmen. Im Jahr 2003 gab es dort 100 Suizidfälle, seitdem werden laut der Zeitung „Welt“ keine Zahlen mehr publik.
In besagtem Video fand Logan Paul die Leiche eines Mannes, filmt diese – wenn auch unter Zensur – und berichtete im Anschluss den Park-Aufsehern.
Der Shitstorm, der danach losging, hielt Menschen nicht davon ab, sich das Video anzusehen. Sie waren dadurch geradezu angestachelt. Mehrere Millionen Male wurde dieses innerhalb weniger Stunden angesehen, ehe es tags darauf von Paul selbst gelöscht wurde.
Suizid ist in der Medienbranche ein heikles Thema, häufig wird nicht mehr über konkrete Suizidfälle berichtet, um den so genannten „Werther-Effekt“ (Nachahmung) zu vermeiden. War Paul möglicherweise demgegenüber zynisch oder ignorant, stellt sich die Frage, warum „YouTube“ eingeschritten war.
In den „YouTube“-Community Guidelines werden Inhalte verurteilt und nach diesen Regeln entfernt, wenn sie „gewalttätige oder grausame Inhalte“ zeigen. Die Abbildung eines/r Suizidtoten zählt hier eigentlich dazu und müsste folglich von der Plattform entfernt werden.
„YouTube“ wird normalerweise auf solche anstößigen Videos nicht nur über Algorithmen aufmerksam, sondern auch dadurch, dass sie von NutzerInnen als unpassend „geflagged“ werden. Im Fall von Logan Pauls Video wurde „YouTube“ trotz dessen Abonnentenzahl und des Aufschreis in sozialen Medien nicht darauf aufmerksam.
Rechtliche Hintergründe
Obwohl es sich um keinen Rechtsverstoß handelt, so doch um ein ethisches Debakel.
Auch der auf Medien- und Urheberrecht spezialisierte Anwalt Bernhard Heinzl (KanzleiDORDA) kommt im Interview mit SUMO zum selben Schluss. Außerdem sei „YouTube“, sagt er, als Host-Provider wie andere ähnliche US-amerikanische Plattformen oft schwer greifbar. Vergleichbar ist der Fall Max Schrems vs. „Facebook“,bei dem ein Ergebnis bis heute aussteht. Bei rechtlichen Verstößen werden meist die HerausgeberInnen der Videos zur Rechenschaft gezogen, so Heinzl, aber: „Auch gegen ‚YouTube‘ kann man unter bestimmten Voraussetzungen vorgehen.Im E-Commerce-Gesetz gibt es das so genannte Privileg für Host-Provider. ‚YouTube‘ ist ja nur eine Plattform, die einen Webspacebereitstelltund fremde Inhalte hostet. Solche Host-Provider trifft nach der jetzigen Gesetzeslage grundsätzlich keine Pflicht, Inhalte die hochgeladen werden,proaktiv zu überwachen. Eine Haftung wird somit erst dann schlagend, sobald sie Kenntnis von rechtswidrigen Inhalten haben.“
Es gibt aber nicht nur Fälle, in denen Videos nicht gesperrt werden, obwohl deren Inhalte das nahelegen würden, sondern auch das andere Ende des Spektrums, bei welchem „YouTuberInnen“ durch fehlerhafte „demonetization“ ein großer Teil ihres Einkommens durch Werbung entgeht. Unter „demonetization“ versteht man das Entfernen von Werbung, die regulär vor den bzw. während der Videos gespielt werden würde. „YouTube“ selbst hat sich mit dessen Partnerprogramm so abgesichert, dass es für die, die Inhalte erstellen zwar die Möglichkeit gibt, Geld durch Werbeschaltungen zu erhalten, was jedoch nicht zwingend der Fall ist.Der Plattformbetreiber muss die Waage zwischen den Mitgliedern ihres Partnerprogramms und den Werbekunden halten. Letztere haben den Anspruch, dass ihre Werbung nicht im Zusammenhang mit unpassenden Inhalten gezeigt werden, und weil die oft sehr großen Unternehmen am längeren Hebel sitzen, ziehen die verhältnismäßig kleinen „YouTuberInnen“ oft den Kürzeren.
Warum machen die Algorithmen diese Fehler?
Christoph Poropatits, ehemaliger „YouTube“-Mitarbeiter, meint im Gespräch mit SUMO, dass es im Fall von Logan Paul verschiedene Gründe geben könnte, warum die Algorithmen nicht griffen.
Bei „YouTube“-Partnern mit großen Abonnentenzahlen wird das System des „flaggens“ auch dementsprechend oft aus für den „YouTuber“ falschen oder unverständlichen Gründen genutzt. Poropatits: „Es steht jedem/jeder NutzerIn zu, zu sagen: ,Das ist mir jetzt zu weit gegangen, ich ,flagge’ das jetzt’, auch wenn es vielleicht noch nicht den Community-Guidelines widerspricht“. Mit einer durchschnittlichen Zahl von 3,5 Millionen Aufrufen und zwischen 15.000 und 20.000 Dislikes auf seinen Videos werden Logan Pauls Videos mit hoher Wahrscheinlichkeit auch ohne Richtlinienverstöße oft „geflagged“. Laut Poropatits könnte es so beim „flaggen“ auch eine durchschnittliche Anzahl an Meldungen bei abonnentenstarken Kanälen geben, welche von den Algorithmen und auch den „YouTube“-MitarbeiterInnen als akzeptabel angesehen werden und bei denen noch nicht gehandelt werden muss. Diese Anzahl muss bei dem besagten Video nicht zwingend in so großem Maße überschritten worden sein, dass es auffällig geworden wäre.
Die Stärken der Algorithmen
Auch wenn es viel Aufregung um das Thema der Algorithmen gibt, treten Schwächen wie in der Causa Logan Paul zwar regelmäßig auf, jedoch gibt es auch Erfolge der Algorithmen zu berichten. Ende April 2018 veröffentlichte „YouTube“ einen Post, in dem die großen Erfolge der durch „Machine Learning“ immer intelligenter werdenden Algorithmen aufgezeigt wurden. Im letzten Quartal 2017 entfernte der Host-Provider über acht Millionen Videos. Von diesen wurden 85% von Algorithmen entdeckt und 76% davon wurden entfernt, bevor sie einen einzigen Aufruf auf der Plattform generierten. Im ersten Quartal 2018 stiegen die Zahlen noch weiter und beweisen damit eine gewisse Lernfähigkeit der Programme, die hinter dem „YouTube“-Netzwerk stehen.
AUTORIN
Johanna Schrey