Künstliche Intelligenz und Diskriminierung

Für die Plattform Lernende Systeme hat ein Forscherteam mit ITAS-Leiter Armin Grunwald Ursachen und Formen von Diskriminierung durch Algorithmen untersucht. Ihr Whitepaper fordert unter anderem eine unabhängige Kontrollinstanz für Künstliche Intelligenz.
Whitepaper "Künstliche Intelligenz und Diskriminierung – Herausforderungen und Lösungsansätze"
Whitepaper „Künstliche Intelligenz und Diskriminierung“

Lernende Systeme, so die Diagnose des Whitepapers, bergen das Potenzial, in der Gesellschaft bereits vorhandene Diskriminierungen zu übernehmen oder sie sogar zu verschärfen. Beispiel: Ein KI-System wird zum Vorsortieren von Jobbewerbungen mit den Daten der in der Vergangenheit erfolgreich eingestellten Beschäftigten trainiert. Sind diese überwiegend männlich, lernt der Algorithmus, Bewerbungen von Männern besser zu bewerten als diejenigen von Frauen.

Unabhängige Kontrollinstanz soll KI-Entscheidungen überprüfen

Aufgrund der Komplexität von sich eigenständig weiter entwickelnden KI-Systemen empfehlen die Autorinnen und Autoren eine unabhängige Instanz, um Entscheidungen lernender Systeme zu kontrollieren. Diese Instanz soll ähnlich einem Datenschutzbeauftragten dabei helfen, die Rechte potenziell diskriminierter Bürgerinnen und Bürger geltend machen zu können. Hersteller oder Betreiber sollten zudem verpflichtet werden, ihre Systeme im Betrieb zu beobachten und im Falle diskriminierender Entscheidungen nachzubessern, heißt es in dem Whitepaper.

Eine weitere Empfehlung ist, die Kriterien, anhand derer ein Algorithmus lernt, bereits vorab zu selektieren. Die Gesellschaft müsse sich dazu auf die Merkmale einigen, die als diskriminierend bewertet werden (z.B. die ethnische Zugehörigkeit), damit diese aus dem Input für maschinelle Lernverfahren gestrichen werden können.

Hintergrund des Whitepapers

Das Whitepaper „Künstliche Intelligenz und Diskriminierung“ hat der Leiter des ITAS, Armin Grunwald, gemeinsam mit Susanne Beck (Leibniz Universität Hannover), Kai Jacob (SAP) und Tobias Matzner (Universität Paderborn) verfasst. Die Autorin und die Autoren sind Mitglieder der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme, die 2017 vom Bundesministerium für Bildung und Forschung (BMBF) gegründet wurde.

Diskriminierungsrisiken durch Algorithmen sind am ITAS auch Gegenstand eines Projekts im Auftrag der Antidiskriminierungsstelle des Bundes. Der Abschlussbericht soll voraussichtlich noch im Spätsommer 2019 vorgestellt werden. (19.07.2019)

Weiterführende Links