Deepfakes: Projekt stellt Betroffene in den Mittelpunkt

Aus Aufnahmen realer Menschen macht KI täuschend echte Bilder, Videos und Audios – oft mit gravierenden Folgen. Ein neues ITAS-Projekt entwickelt gemeinsam mit potenziell gefährdeten Personen Strategien zum Schutz vor missbräuchlichen Deepfakes.
Deep Fakes Reihaneh Golpayegani / betterimagesofai.org / CC BY 4.0
Fotorealistische Deepfakes können heute mit einfachsten Mitteln erstellt werden. DEEP-PRISMA will helfen, Betroffene besser zu schützen.

Die Anzahl online geteilter Deepfakes wächst rasant. Wurden 2019 rund 15.000 veröffentlichte Deepfakes gezählt, waren es 2023 bereits knapp 100.000 (Securityhero, 2023). Heute dürfte die Zahl in die Millionen gehen. Gleichzeitig sind die mit KI-Tools erstellten Medieninhalte selbst für Expertinnen und Experten kaum mehr von echten Videos oder Audios zu unterscheiden. Immer häufiger werden diese nahezu perfekten Fakes für schädigende oder betrügerische Zwecke eingesetzt, beispielsweise um an Passwörter, Kontodaten oder Firmengeheimnisse zu gelangen.

Rund 98 Prozent der Deepfakes sind pornografisch

Beim überwiegenden Anteil der Deepfakes handelt es sich jedoch um sexualisierende Inhalte mit schwerwiegenden Konsequenzen für die konkret Betroffenen. Schätzungsweise 98 % der Deepfakes zeigen pornografische Inhalte, von denen wiederum 99 % Bildmaterial weiblicher Personen verwenden. Genaue Zahlen lassen sichaufgrund der hohen Dunkelziffer und der rasanten Entwicklung jedoch nicht ermitteln.

Ein aktuelles Beispiel ist die massenhafte Veröffentlichung pornografischer Fake-Inhalte auf der Grundlage von Fotos realer Personen über die Microblogging-Plattform X. Diese ist aufgrund ihrer großen Reichweite und geringen Moderationshürden (siehe Dana Mahr: The algorithm that hates for our own good, 2025) besonders anfällig für die Verbreitung derartiger Inhalte.

Menschen, die von solchen missbräuchlichen und die Persönlichkeitsrechte schädigenden Fakes betroffen sind, stehen im Fokus des im Februar 2026 am ITAS gestarteten Projekts „Privatheit und weitere Rechte der Bürgerinnen und Bürger schützen vor Missbrauch durch Deepfakes“, kurz DEEP-PRISMA. „Bislang ist kaum bekannt, wie Betroffene konkret mit Deepfake-Missbrauch umgehen, etwa ob sie rechtliche Schritte einleiten, psychologische Unterstützung suchen oder ihr Online-Verhalten verändern. Hier setzen wir mit DEEP-PRISMA an“, sagt Jutta Jahnel, die das Projekt am ITAS leitet.

Belastbare Daten und „Deepfake-Action-Kit“

Eine belastbare Datenbasis zum Umgang Betroffener mit Deepfakes wollen die Forschenden mithilfe von breit angelegten Umfragen unter Schülerinnen und Schülern sowie jungen Erwachsenen erheben. Darauf aufbauend werden Vertreterinnen und Vertreter dieser potenziell besonders betroffenen Gruppen zu moderierten Diskussionen, sogenannten Fokusgruppen, eingeladen.

In diesem Rahmen soll gemeinsam ein „Deepfake-Action-Kit“ entwickelt werden, das zielgruppengerechte Handlungsempfehlungen sowie praxisnahe Informationen zu Initiativen und Anlaufstellen bereitstellt – beispielsweise für den praktischen Einsatz an Schulen oder in der Jugendarbeit. „So könnte das Action-Kit etwa einer Schülerin helfen, die mit einem sexualisierten Deepfake konfrontiert ist: Es zeigt erste Schritte zur Beweissicherung, verweist auf Beratungsstellen und erklärt, welche rechtlichen Möglichkeiten bestehen“, erklärt ITAS-Wissenschaftlerin Dana Mahr aus dem Projektteam.

Juristische Regeln auf dem Prüfstand

Gemeinsam mit den Projektpartnern werden in DEEP-PRISMA auch bestehende juristische Regelungen und deren Durchsetzung bewertet, wie beispielsweise der Digital Services Act und die KI-Verordnung der Europäischen Union. Zum Hintergrund erklärt Jutta Jahnel: „Es gibt zwar eine ganze Reihe verschiedener Regularien zur Erstellung und Verbreitung von Deepfakes. Für eine strafrechtliche Ahndung von Missbrauch sind diese in der Praxis aber oft zu allgemein formuliert und nicht ausreichend.” Erschwerend komme hinzu, dass oftmals die Täter im digitalen Raum anonym bleiben und viele missbräuchliche Nutzungen von Deepfakes gar nicht erst gemeldet werden. Hier will DEEP-PRISMA Empfehlungen erarbeiten, um bestehende Regelungen sinnvoll weiterzuentwickeln.

Das Projekt wird für drei Jahre vom Bundesministerium für Forschung, Technologie und Raumfahrt gefördert. Projektpartner sind das Fraunhofer-Institut für System- und Innovationsforschung (ISI), das Internationale Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen und das Fachgebiet Öffentliches Recht, IT-Recht und Umweltrecht der Universität Kassel. (23.02.2026)

Weiterführende Links: