Systemische Risiken der künstlichen Intelligenz

Projektbeschreibung

Systemische Risiken sind bisher vor allem durch die Finanzkrise oder den Klimawandel bekannter geworden. Obwohl sie sehr unterschiedlich konzeptionalisiert werden, spielen häufig komplexe Verbindungen, Wechselwirkungen und Interdependenzen, aber auch emergente Effekte, Rückkopplungseffekte oder Kipppunkte eine Rolle. Sie können zu weiten Fehlfunktionen eines Systems oder sogar zu dessen Versagen führen. Systemische Risiken von KI-Anwendungen sind bisher nur wenig untersucht worden, vor allem im Hinblick auf Grundrechte. Es gibt jedoch bereits konkrete Hinweise auf systemische Risiken durch Kopplungen von KI-basierten Diensten und Produkten mit Basismodellen, wie z. B. großen Sprachmodellen. Das Teilprojekt analysiert die vielfältigen Ursachen, spezifischen Wirkungsweisen und Schadensformen von systemischen Risiken der KI, um auf dieser Basis geeignete Formen der Governance bzw. Regulierung abzuleiten.

Dieses Teilprojekt zu den systemischen Risiken gehört zum zweiteiligen, interdisziplinären Projekt „Systemische und existenzielle Risiken der KI“, in dem sowohl theoriebasiert als auch empirisch derartige Risiken untersucht werden. Ziel ist es, Wissen aus unterschiedlichen disziplinären Bereichen zusammenzuführen, um fundierte Einschätzungen und Empfehlungen zu ermöglichen. Neben den eigenen Forschungen sollen dazu auch externe Gutachten zu spezifischen Fragestellungen vergeben werden.

Im Gegensatz zu den unmittelbaren Folgen von KI für betroffene Einzelpersonen oder Unternehmen liegen zu möglichen systemischen oder existenziellen Risiken der KI bisher keine konsistenten Bewertungs- und Handlungsansätze vor. Es gibt jedoch gerade in jüngster Zeit konkrete Hinweise auf systemische Risiken, beispielsweise durch die Folgen von generativer KI für die Gesellschaft. Weiterhin wird von den Medien und unterschiedlichen Akteuren aus dem Feld der KI auch auf existenzielle Risiken für die gesamte Menschheit hingewiesen, die mit der ungebremsten Fortentwicklung von KI einhergehen könnten. Für die erfolgreiche und gesellschaftlich akzeptable Implementierung von KI-Technologien und damit letztendlich für deren wirtschaftlichen Erfolg ist die frühzeitige Berücksichtigung möglicher Risiken und Befürchtungen unerlässlich.

Kontakt

Dr. Carsten Orwat
Karlsruher Institut für Technologie (KIT)
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 3640
76021 Karlsruhe

Tel.: 0721 608-26116
E-Mail