Täuschend echte Deepfakes werden immer überzeugender. SUMO sprach mit Netzjournalistin Barbara Wimmer und Senior Video-Editor Tobias Sautner über die Chancen und Risiken dieser Technologie – und warum Medienkompetenz entscheidend dafür ist, Wahrheit und Lüge künftig noch unterscheiden zu können.
TEXT: ALINA PEINTHOR | FOTO:
Durch den Einsatz künstlicher Intelligenz ist es möglich, täuschend echte Videos, Bilder und Tonaufnahmen zu erzeugen – sogenannte Deepfakes. Für Laien sind diese kaum noch als Fälschung erkennbar. SUMO sprach dazu mit Netzjournalistin und Buchautorin Barbara Wimmer: „Deepfakes werden benutzt, um Menschen zu verleumden, politische Desinformation zu streuen, für Cybermobbing oder auch für Betrug“, erklärt Wimmer das Phänomen. Damit seien sie ein zentrales Thema im Bereich Datenschutz und IT-Security.
Ein aktuelles Beispiel: 2024 kursierte auf TikTok ein Deepfake-Audio, in dem die US-Vizepräsidentin Kamala Harris angeblich abwertende Aussagen über Elon Musk machte. Das manipulierte Audio verbreitete sich millionenfach, bevor es als Fälschung enttarnt wurde. Dieser Fall zeigt, wie schnell und effektiv Deepfakes politische Stimmungen beeinflussen können. Zwar stehen Journalist*innen und Faktenchecker*innen Tools zur Verfügung, um Deepfakes zu entlarven – etwa spezialisierte KI-Erkennungssoftware – doch diese Programme sind nicht für jede*n zugänglich. „Es ist bereits jetzt so, dass man Deepfakes als Laie oft nicht mehr erkennen kann“, so Wimmer. Besonders problematisch sei die Geschwindigkeit, mit der sich die Technologie weiterentwickelt.
Tobias Sautner, Absolvent der Fachhochschule St. Pölten im Bereich Medientechnik und Digitale Medientechnologien, erstellte im Zuge seiner Diplomarbeit selbst Deepfake-Videos. „Teilweise habe ich zwei bis drei Tage gebraucht, um nur ein Modell zu trainieren“, erinnert sich Sautner. Heute könnten ähnliche Ergebnisse mit deutlich weniger Aufwand erreicht werden: „Mittlerweile dauert die Erstellung oft nur noch wenige Stunden – und dank zahlreicher Online-Tools und Anleitungen ist der Einstieg für Anfänger*innen viel leichter geworden.“
Sautner arbeitet heute als Senior Video-Editor in der Filmproduktionsbranche, wo er regelmäßig mit VFX- und KI-Tools zu tun hat. Die rasant gestiegene Zugänglichkeit der Technologie sieht er deshalb als ernstzunehmende Gefahr.
Bedrohung für Privatpersonen
Neben politischer Manipulation hält Wimmer noch einen anderen Bereich für ebenso gravierend: „Der menschlich allerschlimmste Aspekt von Deepfakes ist für mich der pornografische Kontext.“ Während früher vor allem prominente Frauen betroffen waren, könne heute jede Frau potenziell Opfer werden. „Selbst wenn die Bilder offensichtlich falsch sind, empfinden Betroffene große Scham. Der Imageschaden entsteht trotzdem.“
Laut einer Analyse des Cybersecurity-Portals Home Security Heroes aus dem Jahr 2023, die auf eigenen Auswertungen beruht, machen pornografische Deepfakes 98 % aller Deepfake-Inhalte aus, wobei 99 % der Betroffenen Frauen sind. Wimmer spricht von einem strukturellen Problem: „Frauen werden sexualisiert dargestellt und das verschärft sich durch KI weiter.“ Schutzmaßnahmen seien kaum möglich: „Man müsste auf jegliche digitale Sichtbarkeit verzichten.“
Auch Sautner sieht in pornografischen Deepfakes eine große Gefahr: „Gerade weil das Internet nichts vergisst, können solche Inhalte lebenslange Schäden anrichten.“ Gleichzeitig warnt er auch vor politischen und betrügerischen Anwendungen: „Ob Fake-Videos im Wahlkampf oder Enkeltrick-Betrug per Video – Deepfakes eröffnen unzählige Möglichkeiten für Missbrauch.“
Zwischen Missbrauch und kreativem Potenzial
Trotz aller Risiken sieht Sautner auch sinnvolle Einsatzmöglichkeiten von Deepfakes. In der Filmbranche werden die Technologien zur Deepfake-Erstellung gezielt genutzt, etwa um Schauspieler*innen für Rückblenden digital zu verjüngen oder verstorbene Darsteller*innen wieder zum Leben zu erwecken. „In einem Star-Wars-Film wurde ein verstorbener Schauspieler glaubwürdig eingefügt, was natürlich ethisch diskussionswürdig ist. Auch aktuelle Produktionen setzen Deepfakes ein, um Rückblenden authentischer wirken zu lassen“, berichtet Sautner. Besonders dort, wo klassische Spezialeffekte an ihre Grenzen stoßen, könne Deepfake-Technologie effizient und qualitativ hochwertig eingesetzt werden.
Rechtlicher Umgang mit Deepfakes
Auch rechtlich ist der Umgang mit Deepfakes herausfordernd. Mittlerweile gibt es jedoch erste Urteile, die den Betroffenen helfen: Eckart von Hirschhausen, ein deutscher Arzt und Wissenschaftsjournalist, der für seine gut erklärten und humorvollen Empfehlungen zu gesundem Lebensstil und zum Klimaschutz bekannt ist, klagte erfolgreich gegen die Plattform Meta, auf der gefälschte Deepfake-Videos von ihm verbreitet wurden. Die Clips zeigten ihn angeblich als Unterstützer von betrügerischen Finanzprodukten – in Wirklichkeit hatte er diese Aussagen nie getroffen. Durch das Urteil wurde erreicht, dass Meta sämtliche Varianten dieser Deepfakes – auch leicht veränderte Versionen – löschen und deren Wiederverbreitung verhindern muss.
Wimmer betont, dass technische Lösungen zur Löschung und Erkennung existieren, jedoch klare rechtliche Rahmenbedingungen fehlen. Sautner sieht ein komplettes Verbot kritisch: „Die Erkennung von Deepfakes ist extrem schwierig. Selbst aufwendige Prüfmechanismen sind oft nicht zuverlässig bzw. Mit hohen Kosten verbunden.“ Stattdessen setzt er auf technische Hilfsmittel wie digitale Wasserzeichen und die verpflichtende Kennzeichnung von KI-generierten Inhalten – eine Praxis, die erste Plattformen wie Instagram bereits eingeführt haben, indem sie Posts mit Hinweisen wie „erstellt mit KI“ kennzeichnen.
Unsichere Zukunft – Bildung als Schlüssel
Für die Zukunft zeigt sich Barbara Wimmer besorgt: „Es wird immer schwieriger, zwischen Wahrheit und Lüge zu unterscheiden. Deepfakes bedrohen unsere Demokratie, fördern Betrug und schaden besonders Frauenrechten.“ Ein komplettes Verbot hält sie für unrealistisch: „KI wird man nicht mehr verbannen können.“
Tobias Sautner sieht Bildung als den einzigen nachhaltigen Weg, um Deepfakes wirkungsvoll zu begegnen: „Langfristig gilt es, Medienkompetenz zu schaffen.“ Menschen müssten lernen, nicht alles zu glauben, was sie in einem Video sehen. Es gehe darum, Inhalte zu hinterfragen, verschiedene Quellen zu prüfen und Beweise zu suchen: „Gibt es dieses Interview aus mehreren Kamerawinkeln? Gibt es andere Möglichkeiten zu verifizieren, ob es echt ist?“ Sautner fordert, dass solche Fähigkeiten künftig stärker in den Schulunterricht integriert werden. Gerade weil manipulierte Inhalte immer selbstverständlicher werden könnten, werde Medienkritik zu einer unverzichtbaren Kompetenz für die Gesellschaft. Medienkompetenz sollte vielmehr zu einer Grundvoraussetzung für alle Generationen werden – nicht nur für junge Menschen. Gleichzeitig bleibt offen, wohin die rasante Entwicklung der Technologie führen wird. Deepfakes eröffnen faszinierende neue Möglichkeiten, aber auch neue Risiken. Fest steht: Die Fähigkeit, zwischen Wahrheit und Täuschung zu unterscheiden, wird in Zukunft wichtiger sein als je zuvor.
ALINA PEINTHOR


