Projekt zu systemischen und existenziellen KI-Risiken

Bergen KI-Modelle und ihre Anwendungen systemische Risiken oder könnten sie sich sogar verselbstständigen und damit zu einer existenziellen Bedrohung werden? Dieser Frage geht das ITAS im Auftrag des Bundesministeriums für Bildung und Forschung nach.
Menschen, die an einem Konferenztisch sitzen. darüber eine Sprechblase: "Systemische und existenzielle Risiken von KI"
Quelle: rawpixel / Freepik (bearbeitet)

Neben großen, vor allem ökonomischen Hoffnungen scheinen sich mit der schnell voranschreitenden Entwicklung der künstlichen Intelligenz auch Befürchtungen zu konkretisieren, die bis vor kurzem eher in den Bereich der Science-Fiction gehörten. Können beispielsweise Anwendungen, die auf immer leistungsfähigeren KI-Modellen basieren, die Verbreitung von Desinformation weiter erleichtern und demokratische Prozesse grundlegend stören? Oder können sich KI-Systeme der menschlichen Kontrolle gänzlich entziehen und damit zu einer existenziellen Bedrohung werden?

Diese Fragen systematisch zu untersuchen und tragfähige Bewertungs- und Handlungsansätze zu entwickeln, ist Ziel eines jetzt am ITAS gestarteten zweiteiligen Projekts zu „Systemischen und existenziellen Risiken der KI“. Gefördert wird das Vorhaben vom Bundesministerium für Bildung und Forschung (BMBF).

Im ersten Teilprojekt beschäftigen sich die Forschenden mit systemischen Risiken. „Solche Risiken zeichnen sich durch komplexe Wechselwirkungen oder Kipppunkte aus, die zu Fehlfunktionen oder zum Zusammenbruch von Systemen führen, wie etwa bei der Finanz- oder Klimakrise“, erklärt Projektleiter Carsten Orwat. Das Projekt will den sich verdichtenden Hinweisen auf solche Risiken bei KI-Anwendungen nachgehen. Zudem sollen Ursachen, spezifische Wirkungsweisen und Schadensformen analysiert werden, um auf dieser Basis geeignete Regulierungsformen abzuleiten.

Handlungsempfehlungen, die helfen, mögliche Risiken und Befürchtungen frühzeitig zu berücksichtigen, sind auch das Ziel des zweiten Teilprojekts. „Hier untersuchen wir die Befürchtung von KI-Expert*innen und -Entwickler*innen, dass künstliche Intelligenzen entwickelt werden könnten, die sich der menschlichen Kontrolle vollständig entziehen und Ziele verfolgen, die mit menschlichen Interessen in Konflikt stehen und sogar den Fortbestand der menschlichen Zivilisation bedrohen“, so Projektleiter Reinhard Heil. (14.02.2024)

Weiterführende Informationen: