Systemische Risiken der künstlichen Intelligenz
- Projektteam:
Orwat, Carsten (Projektleitung); Jutta Jahnel (Projektkoordination), Alexandros Gazos, Lucas Staab
- Förderung:
Bundesministerium für Bildung und Forschung
- Starttermin:
2024
- Endtermin:
2025
- Forschungsgruppe:
Projektbeschreibung
Systemische Risiken sind bisher vor allem durch die Finanzkrise oder den Klimawandel bekannter geworden. Obwohl sie sehr unterschiedlich konzeptionalisiert werden, spielen häufig komplexe Verbindungen, Wechselwirkungen und Interdependenzen, aber auch emergente Effekte, Rückkopplungseffekte oder Kipppunkte eine Rolle. Sie können zu weiten Fehlfunktionen eines Systems oder sogar zu dessen Versagen führen. Systemische Risiken von KI-Anwendungen sind bisher nur wenig untersucht worden, vor allem im Hinblick auf Grundrechte. Es gibt jedoch bereits konkrete Hinweise auf systemische Risiken durch Kopplungen von KI-basierten Diensten und Produkten mit Basismodellen, wie z. B. großen Sprachmodellen. Das Teilprojekt analysiert die vielfältigen Ursachen, spezifischen Wirkungsweisen und Schadensformen von systemischen Risiken der KI, um auf dieser Basis geeignete Formen der Governance bzw. Regulierung abzuleiten.
Dieses Teilprojekt zu den systemischen Risiken gehört zum zweiteiligen, interdisziplinären Projekt „Systemische und existenzielle Risiken der KI“, in dem sowohl theoriebasiert als auch empirisch derartige Risiken untersucht werden. Ziel ist es, Wissen aus unterschiedlichen disziplinären Bereichen zusammenzuführen, um fundierte Einschätzungen und Empfehlungen zu ermöglichen. Neben den eigenen Forschungen sollen dazu auch externe Gutachten zu spezifischen Fragestellungen vergeben werden.
Im Gegensatz zu den unmittelbaren Folgen von KI für betroffene Einzelpersonen oder Unternehmen liegen zu möglichen systemischen oder existenziellen Risiken der KI bisher keine konsistenten Bewertungs- und Handlungsansätze vor. Es gibt jedoch gerade in jüngster Zeit konkrete Hinweise auf systemische Risiken, beispielsweise durch die Folgen von generativer KI für die Gesellschaft. Weiterhin wird von den Medien und unterschiedlichen Akteuren aus dem Feld der KI auch auf existenzielle Risiken für die gesamte Menschheit hingewiesen, die mit der ungebremsten Fortentwicklung von KI einhergehen könnten. Für die erfolgreiche und gesellschaftlich akzeptable Implementierung von KI-Technologien und damit letztendlich für deren wirtschaftlichen Erfolg ist die frühzeitige Berücksichtigung möglicher Risiken und Befürchtungen unerlässlich.
Externe Gutachten
Im Rahmen des Projekts werden Interessenten für externe Gutachten zu spezifischen Fragestellungen gesucht. Die detaillierten Leistungsbeschreibungen finden sie in folgenden Dokumenten (bei Fragen bitte an den im Dokument angegebenen Kontakt wenden):
Leistungsbeschreibung: systemische Umweltrisiken künstlicher Intelligenz (PDF)
Leistungsbeschreibung: systemische Risiken interagierender künstlicher Intelligenz (PDF)
Publikationen
Kritische Infrastrukturen und transformative Resilienz – zwischen Stabilisierungsversuchen und der Notwendigkeit des Wandels
2025. "Transformationssoziologie konkret" : Schader-Forum (2025), Darmstadt, Deutschland, 30. Juni–1. Juli 2025
Risiko
2024. Digitalität von A bis Z. Hrsg.: Florian Arnold, Johannes C. Bernhardt, Daniel Martin Feige, Christian Schröter, 291–300, transcript Verlag
Algorithmische Diskriminierungsrisiken - Ausweitung zu systemischen Risiken
2024, Oktober 23. Digitale Räume, reale Risiken : Wie können wir digitale Räume gerechter und sicherer gestalten? (2024), Karlsruhe, Deutschland, 23. Oktober 2024
Zum Umgang mit Restrisiken der Diskriminierung durch KI
2024. FRAIM Midterm Konferenz (2024), Universität Bonn, 17.–18. Juni 2024
Algorithmic bias and systemic risks of AI and platforms
2024. WIN Conference: Foundations and Perspectives of European Platform Regulation (2024), Heidelberg, Deutschland, 19.–20. September 2024
Kontakt
Karlsruher Institut für Technologie (KIT)
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 3640
76021 Karlsruhe
Tel.: 0721 608-26116
E-Mail
