Computersysteme sind in immer mehr Entscheidungen einbezogen, die unser Leben einschneidend verändern können. Dazu gehören nicht nur Ergebnisse bei der Onlinesuche oder zielgerichtete Werbung und Nachrichten. Auch bei Fragen der Kreditvergabe, Bewerberauswahl, Studienplatzvergabe, Mittelzuweisung im Sozialbereich, Ermittlung von Bewährungszeiten, Polizeieinsätzen und bei Identifizierung von Terroristen „sprechen“ Computersysteme mit. Sie geben Empfehlungen an menschliche Entscheidende oder führen die Entscheidungen gleich selbst aus.
Wie steht es um die Fairness bei diesen Entscheidungen und welche Risiken existieren? Diesen Fragen widmet sich der nächste Themenabend in der Reihe „technik.kontrovers“ am 26. Februar 2019 um 18 Uhr im ITAS.
Vollautomatisierte Fahrzeuge und andere so genannte autonome Systeme sind darüber definiert, dass sie Entscheidungen selbstständig ausführen. Dabei sind Algorithmen zentral, denn sie führen Entscheidungsregeln aus oder tragen zu ihrer Entwicklung bei. Die Fülle der unterschiedlichen Algorithmen ist enorm. Sie reicht von relativ einfachen bis hin zu hoch komplexen Typen in Form von Modellen des maschinellen Lernens bzw. der künstlichen Intelligenz, die sich oft nur schwer nachvollziehen lassen. Mit ihrem Einsatz wird zumeist beabsichtigt, Probleme effektiver und effizienter zu lösen. Außerdem – so die Hoffnung – könnte man mit ihrer Hilfe zu faireren Entscheidungen gelangen, da sie mehr Informationen berücksichtigen und menschliche Vorurteile minimieren.
Leider führt die Automatisierung von Entscheidungen nicht nur zu Effizienzgewinnen und Innovationen. Um Regeln für algorithmische Entscheidungen zu bilden, müssen zunächst sehr große Mengen von personenbezogenen Daten verarbeitet werden, die auf teils unklare Weise ermittelt werden. Der Einsatz nicht-repräsentativer Datensätze kann zu Verzerrungen und Ungleichbehandlungen bei den algorithmischen Entscheidungen führen. Mit anderen Worten: Es entstehen Diskriminierungsrisiken.
Diskriminierung droht auch dann, wenn Softwareentwickelnde und -Anwendende bewusst oder unbewusst und ohne anerkannte Begründung diskriminierungsrechtlich geschützten Merkmale in die Entscheidungsregeln einbauen. Etwa Geschlecht, Alter, Religion, Behinderung, ethnische Herkunft oder sexuelle Orientierung.
Mittlerweile haben Forschung, Wirtschaft und Politik reagiert. Es wird an Methoden der Datenauswertung, Algorithmen und künstlicher Intelligenz geforscht, die Diskriminierungen von vornherein ausschließen sollen. Ethikgremien und auch Unternehmen selbst arbeiten an Richtlinien für automatisierte Entscheidungen. Und die Politik prüft die Funktionsfähigkeit des Diskriminierungs- und Datenschutzes und die Notwendigkeit neuer Regulierungen.
Bei der Diskussion um algorithmische Diskriminierungsrisiken treten alte Fragen nach dem Ausmaß, den Formen und Kriterien von gesellschaftlich akzeptabler Differenzierung und Ungleichbehandlung wieder verstärkt zu Tage, die einer breiten gesellschaftlichen Debatte bedürfen.
Darum laden wir, das technik.kontrovers-Team, und die Referenten Carsten Orwat und Reinhard Heil Sie ein, Ihre Sicht der Dinge mit uns zu teilen. Wir freuen uns auf eine spannende Diskussion!