In einer Welt, in der selbst unsere eigenen Augen und Ohren uns täuschen können, führt die österreichische Polizei einen stillen Kampf gegen die perfekte digitale Illusion. SUMO sprach mit Daniel Widerna, IT-Forensiker im Bundesministerium für Inneres, und näherte sich dem Phänomen Deepfake journalistisch an. Wie die Polizei mit den neuen digitalen Herausforderungen umgeht, was wirklich dahinter steckt und warum Prävention dabei mehr als nur ein Schlagwort ist.
TEXT: BENJAMIN SCHMIDT | FOTO: BENJAMIN SCHMIDT
Wer die Polizeiarbeit rund um Deepfakes verstehen will, muss zunächst wissen, wo diese überhaupt stattfindet. Daniel Widerna ist Experte für Multimedia-Forensik im Cybercrime Competence Center (C4) des österreichischen Bundeskriminalamts – einem hochspezialisierten Bereich mit fünf technischen Abteilungen. Er selbst arbeitet in der Abteilung 2, der IT-Forensik, wo neben klassischer Computeranalyse auch Mobile- und KFZ-Forensik sowie ein Elektroniklabor angesiedelt sind. Widernas Fokus liegt dabei auf der Multimedia-Forensik: einem Bereich, der sich mit der Sicherung und Analyse digitaler Spuren auf Bild-, Audio- und Videodateien befasst – und damit genau dort ansetzt, wo Deepfakes entstehen.
Täuschend echt und doch konstruiert
Digitale Manipulationen sind nichts Neues. Doch was einst mit Photoshop begann, erreicht mit der Deepfake-Technologie eine neue Dimension. Deepfakes sind mittels Künstlicher Intelligenz (KI) generierte Medieninhalte, bei denen Gesichter oder Stimmen realer Personen täuschend echt in neue Kontexte gesetzt werden. Dabei unterscheidet man grob zwischen Audio-, Video- und Bildmanipulationen. Besonders gefährlich: synthetische Medien, die täuschend echte Videos mit manipuliertem Inhalt erzeugen, etwa durch sogenanntes „Face-Swapping“ oder „Lip-Syncing“, also das Ersetzen eines Gesichts oder das Synchronisieren von Lippenbewegungen mit fremdem Audio.
Von Reddit in die Realität – der technologische Dammbruch
Obwohl erste Forschungsarbeiten zu Deepfakes bereits auf das Jahr 2014 zurückgehen, erlangten sie erst ab 2017 breite mediale Aufmerksamkeit – ausgelöst durch einen technologischen Durchbruch und die neue Zugänglichkeit der Technologie. Im Herbst 2017 veröffentlichte ein anonymer Reddit-Nutzer unter dem Pseudonym „deepfakes“ erstmals pornografische Deepfake-Videos prominenter Schauspielerinnen und stellte den zugrunde liegenden Deep-Learning-Algorithmus als Open-Source-Code zur Verfügung. Die Kombination aus frei verfügbarer Software und ersten benutzerfreundlichen Anwendungen wie FakeApp ermöglichte es plötzlich auch Laien, täuschend echte Deepfakes zu erstellen. Vor allem die virale Verbreitung über soziale Plattformen wie Reddit, wo sich innerhalb kürzester Zeit eine aktive Community im Subreddit „Deepfakes“ bildete, trug dazu bei, dass das Phänomen ein breites Publikum erreichte. Als das Magazin Vice im Dezember 2017 erstmals ausführlich über den Trend berichtete, folgte ein regelrechter Dammbruch in der Berichterstattung. Heute reichen ein handelsüblicher Laptop, frei verfügbare Trainingsdaten und etwas Geduld – ein disruptiver Wandel, der nicht nur neue kreative Möglichkeiten eröffnet, sondern auch erhebliche Risiken birgt etwa im Hinblick auf Desinformation, Persönlichkeitsrechte und digitale Sicherheit.
Ein nationaler Aktionsplan gegen synthetische Medien
Um der wachsenden Bedrohung durch Deepfakes wirksam zu begegnen, hat Österreich im Mai 2023 einen nationalen Aktionsplan vorgelegt, der ressortübergreifend unter Federführung des Innenministeriums entstand. Dieser fokussiert auf vier zentrale Handlungsfelder: den Ausbau technischer und organisatorischer Strukturen, Governance- Fragen, Forschung und Entwicklung sowie internationale Kooperation. Im polizeilichen Umgang mit Deepfakes zeigt sich dieser Aktionsplan in der Praxis vor allem durch die Integration eines entsprechenden Stichworts in das elektronische Anzeigenprotokollierungssystem. Damit sollen relevante Fälle frühzeitig identifiziert und gezielt bearbeitet werden. „Seit dem 1. Januar 2024 wird Deepfake in unserem Anzeigenprotokollierungssystem der Polizei mit einem Stichwort erfasst. Im Jahr 2024 gab es etwa 100 Fälle von Deepfakes in Kombination mit Straftaten. Wir als Multimedia-Forensik sind keine Zentralstelle, die Deepfakes statistisch erfasst, sondern bearbeiten forensisch Audio, Bilder und Videos, wodurch allfällige Deepfake-Analysen zu uns kommen“, erklärt Daniel Widerna. Ziel dieser Maßnahme ist es, ein präziseres Lagebild zu entwickeln und polizeiliche Ermittlungen gezielt zu unterstützen.
Ethische Grauzonen und strafrechtliche Herausforderungen
Deepfakes sind ein zweischneidiges Schwert. Während sie im künstlerischen oder satirischen Kontext durchaus legitim sein können, werden sie immer häufiger für manipulative oder gar kriminelle Zwecke eingesetzt. Besonders heikel: nicht-konsensuelle Deepfake-Pornografie und politisch motivierte Desinformation. Die EU-Kommission warnt vor Deepfakes als Instrument der digitalen Kriegsführung. Auch Instagram, TikTok und YouTube sind bereits mit problematischen Inhalten konfrontiert. Die Verbreitung solcher Inhalte geschieht rasch und oft unkontrolliert – eine enorme Herausforderung für Plattformen und Ermittlungsbehörden. „Die Erstellung eines Deepfake an sich ist nicht strafbar, da es sich lediglich um ein Werkzeug handelt. Entscheidend ist, wie dieses Werkzeug eingesetzt wird“, erklärt Daniel Widerna im Gespräch mit SUMO. Die österreichische Polizei steht damit vor einem Dilemma: Während das Tool selbst legal bleibt, ist sein Einsatz in bestimmten Kontexten – etwa zur Rufschädigung oder Täuschung – sehr wohl strafbar. Die Herausforderung liegt also weniger in der Existenz der Technologie, sondern vielmehr im Nachweis des Missbrauchs.
Ein zentrales Problem bei der Arbeit mit Deepfakes liegt in der Beweisführung: Auch wenn eine Datei aus forensischer Sicht klare Hinweise auf Manipulationen liefert – etwa fehlende oder veränderte Metadaten, unplausible Bilddetails oder widersprüchliche Tonspuren – bedeutet das noch lange keinen gerichtsfesten Beweis. „Man kann sagen, dass eine Veränderung stattgefunden hat. Aber eindeutig heißt nicht zu hundert Prozent gerichtsfest beweisbar“, sagt Widerna. Die IT-Forensik liefert deshalb keine direkten Beweise für ein Deepfake, sondern agiert als Assistenzdienst.
Prävention als wichtigste Maßnahme
„Die Deepfake-Analyse ist immer so: Wenn eine solche benötigt wird, ist in der Regel schon etwas passiert. Deepfake ist eigentlich ein Bereich, eine Thematik, die ganz groß in der Prävention verankert gehört“, so Widerna weiter. „Man bedient sich technischer oder visueller Methoden. Die visuellen kommen zum Einsatz, wenn zum Beispiel ein Standbild künstlich modifiziert wurde, sodass es eigentlich ein Foto von einer Person ist – und die Person sagt dann etwas. Oder ein Gesicht wird in ein Video eingesetzt.“ Auffälligkeiten fänden sich oft in Details: „Was KIs immer noch schlecht können, ist Details wie Hände oder Zähne darzustellen.“
Ein digitaler Balanceakt zwischen Chancen und Risiken
Deepfakes sind gekommen, um zu bleiben. Ihre Anwendung reicht von gefährlicher Desinformation bis zu innovativen Filmtechnologien. Der österreichischen Polizei bleibt derzeit oft nur die reaktive Rolle – doch genau darin liegt auch der Appell: Medienkompetenz muss zur Schlüsselressource einer informierten Gesellschaft werden. Denn was wir sehen, hören oder lesen, ist längst nicht mehr, was es scheint. Ein gesetzliches Verbot von Deepfakes hält Widerna für wenig zielführend: Die Polizei kann reagieren – doch die erste Verteidigungslinie sind wir selbst: ein kritischer Blick, ein wacher Verstand, eine aufgeklärte Gesellschaft.
BENJAMIN SCHMIDT

