Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)

Ethik-Leitfaden zu Künstlicher Intelligenz

Wie kann KI im Sinne der Nutzenden gestaltet und eingesetzt werden? Ein wichtiger Schritt ist, dass Entscheidungen von lernenden Systemen künftig offen nachvollzogen werden können, so die Überzeugung eines Autorenteams mit ITAS-Leiter Armin Grunwald.
Ethik-Leitfaden zu Künstlicher Intelligenz
Quelle: Jessica Heesen et al.

Künstliche Intelligenz (KI) kann unseren Alltag erleichtern, die Gesundheitsversorgung verbessern und zur Lösung globaler Herausforderungen wie dem Klimawandel oder der Corona-Pandemie beitragen. Inwieweit KI-basierte Systeme aber tatsächlich eingesetzt werden, hängt maßgeblich davon ab, ob die Menschen der Technologie vertrauen. Die vom Bundesministerium für Bildung und Forschung (BMBF) ins Leben gerufene Plattform Lernende Systeme hat nun einen Leitfaden verfasst, wie sichere, nachvollziehbare und diskriminierungsfreie KI-Anwendungen entstehen können.

KI zur Förderung des Gemeinwohls

„KI-Systeme sollten immer mit dem Ziel entwickelt und eingesetzt werden, zu ethisch legitimen Anwendungen beizutragen, idealerweise zur Förderung des Gemeinwohls“, so Mitautor Armin Grunwald, Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS). „Beim Einsatz von KI muss Schaden für Einzelpersonen, Gemeinschaften und Umwelt vermieden werden. Die Systeme müssen rechtskonform und technisch robust sein. Sie dürfen zu keinem Zeitpunkt ein unannehmbares Sicherheitsrisiko darstellen.“

Offene Schnittstellen und KI-Register

Um die Selbstbestimmung der Nutzenden zu gewährleisten, sollten Technologieunternehmen erklärbare KI-Systeme konzipieren, die Ergebnisse und Entscheidungen nachvollziehbar machen. Der Leitfaden empfiehlt zudem ein zentrales KI-Register, das in Kooperation zwischen Wirtschaft und öffentlicher Hand betrieben wird, sowie die Entwicklung offener Schnittstellen für die KI-Systeme, um die Vielfalt des Marktangebots zu erhalten. (13.10.2020)

Weiterführende Links und Informationen: