Ethiklabel für KI-Systeme entwickelt

Die Diskussion, wie Algorithmen ethisch gestaltet werden können, macht große Fortschritte. Doch wie sollen die Leitlinien praktisch angewendet werden? Mit dieser Frage befasst sich eine neue Studie, an der auch Forschende des ITAS mitgeschrieben haben.
Mit den „Werkzeugen“ der AI Ethics Impact Group kann die ethische Qualität von KI-Systemen eingestuft werden. (Quelle: William Warby / Unsplash)
Mit den „Werkzeugen“ der AI Ethics Impact Group kann die ethische Qualität von KI-Systemen eingestuft werden. (Quelle: William Warby / Unsplash)
Beispiel für das KI-Ethiklabel (Quelle: AIEI Group)
Beispiel für das KI-Ethiklabel (Quelle: AIEI Group)

Das Arbeitspapier „AI Ethics: From Principles to Practice – An interdisciplinary framework to operationalise AI ethics“ zeigt, wie allgemeine KI-Ethikprinzipien europaweit in die Praxis überführt werden können. Die Autorinnen und Autoren sind Teil der von der Bertelsmann Stiftung und des VDE ins Leben gerufenen „AI Ethics Impact Group“. Aus dem ITAS sind drei Forschende beteiligt: Rafaela Hillerbrand, Torsten Fleischer und Paul Grünke.

Im Mittelpunkt des Papiers steht der Entwurf eines Ethik-Labels für KI-Systeme, optisch angelehnt an Energieeffizienzlabel für Kühlschränke und andere elektronische Geräte. Mithilfe des Labels können Produzenten von KI-Systemen die Qualität ihrer Produkte einstufen. Diese werden dadurch auf dem Markt vergleichbar und die ethischen Anforderungen transparent gemacht. Das Label setzt sich aus den Werten Transparenz, Verantwortlichkeit, Schutz der Privatsphäre, Gerechtigkeit, Verlässlichkeit und Nachhaltigkeit zusammen.

Welche Anforderungen für die unterschiedlichen Stufen erfüllt werden müssen, kann mithilfe des sogenannten „WKIO-Modells“ bestimmt werden, bei dem Werte, Kriterien, Indikatoren und Observablen zusammenwirken.

Risiko-Matrix für unterschiedliche Einsatzzwecke

Die Forscherinnen und Forscher weisen in ihrer Veröffentlichung darauf hin, dass es relevant ist, in welchem Kontext die algorithmischen Systeme genutzt werden. So sei beispielsweise bei einem in der Landwirtschaft eingesetzten System ein geringerer Grad von Transparenz erforderlich als bei der Verarbeitung personenbezogener Daten. Um zu überprüfen, ob ein KI-Einsatz für einen bestimmten Zweck ethisch akzeptabel ist, haben die Forschenden eine so genannte Risiko-Matrix entwickelt.

Die Verfasser betrachten die vorgestellten Lösungsansätze als Werkzeuge, die politischen Akteuren und Kontrollbehörden helfen, Anforderungen an KI-Systeme zu konkretisieren und wirksam zu kontrollieren. Auch Firmen und Organisationen, die algorithmische Systeme einsetzen möchten, könnten das Modell nutzen. Die Werkzeuge müssen nun in der Praxis erprobt und dann weiter ausgearbeitet werden, so die Autorinnen und Autoren. (09.04.2020)

Weiterführende Links oder Dokumente: