Projekt zum Umgang mit Deepfakes

Mit künstlicher Intelligenz manipulierte Medieninhalte sind eine Gefahr für Individuen, Unternehmen und unsere Demokratie. Wie Politik und Gesellschaft dem Phänomen der „Deepfakes“ begegnen können, untersuchen Forschende im Auftrag des Europaparlaments.
Um für die Demokratie zu werben, hat eine US-amerikanische NGO ein Video mit dem „Obersten Führer“ Nordkoreas gefaked
Um für die Demokratie zu werben, hat eine US-amerikanische NGO ein Video mit dem „Obersten Führer“ Nordkoreas gefaked. (Quelle: RepresentUS / YouTube)

Was wir mit eigenen Augen sehen und mit den eigenen Ohren hören können, das glauben wir auch. So genannte Deepfakes erschüttern diese Überzeugung. Es handelt sich dabei um realistisch wirkende Fotos, Audio- oder Videoaufnahmen, die mit Hilfe künstlicher Intelligenz bewusst verändert oder sogar verfälscht werden. Immer bessere technische Möglichkeiten sowie die wachsende Rolle visueller Medien in unserem Alltag verstärken dieses neue Phänomen.

Risiken für die öffentliche Meinungsbildung

Deepfakes begegnen uns in Form eher harmloser, offensichtlich manipulierter Filmsequenzen, etwa zum Zweck der Satire. Sie werden aber auch als bewusst diffamierende, herabwürdigende oder aggressive Inszenierungen eingesetzt. Darüber hinaus können auch durch das nachträgliche Entfernen, Einfügen und Vertauschen von Medieninhalten Deepfakes erzeugt werden. Ein besonders drastisches Beispiel sind manipulierte Pornofilme.

Zwar gibt es durchaus nützliche Anwendungen der Technik, etwa in der Bildung, der Kunst und auch der Medizin. Gleichzeitig existiert jedoch eine Vielzahl von Risiken. Neben den individuellen Folgen für direkt Betroffene zählt dazu insbesondere das Potenzial, durch Desinformation demokratische Prozesse zu beeinflussen.

Entwicklung politischer Handlungsoptionen

Für das Panel for the Future of Science and Technology (STOA) des Europäischen Parlaments nehmen Forschende des ITAS zusammen mit Kolleginnen und Kollegen aus den Niederlanden (Rathenau Institut), Tschechien (Technology Centre CAS) und Deutschland (Fraunhofer ISI) Deepfake-Techniken in den Blick.

Die Wissenschaftlerinnen und Wissenschaftler analysieren dabei künftige Anwendungsszenarien und ihre Auswirkungen. Auf dieser Basis möchten sie auch politische Handlungs- und Regulierungsmöglichkeiten für die Europäische Union entwickeln. Aufgabe des ITAS ist es, relevante Akteure aus Wissenschaft, NGOs und Unternehmen in die Diskussion über soziale, ethische, ökonomische und rechtliche Aspekte von Deepfake-Technologien einzubinden. (01.12.2020)

Weiterführende Links und Dokumente: