Generative KI und Veränderung von menschlichen Verhaltensweisen
- Projektteam:
Orwat, Carsten (Projektleitung); Lucas Staab
- Förderung:
BMFTR
- Starttermin:
2026
- Endtermin:
2026
- Forschungsgruppe:
Projektbeschreibung
Generative künstliche Intelligenz (KI) wird zunehmend in Anwendungen zur Verhaltenserkennung, -beeinflussung oder -steuerung eingesetzt wie auch zur halb- oder vollautomatisierten Differenzierung von Personen. Vielfältige Mechanismen der Verhaltensbeeinflussung und ‑steuerung verändern mit dem Einsatz von generativer KI ihre Wirkungsweise sowie ihre individuellen und gesellschaftlichen Folgen. Zu diesen Mechanismen zählen beispielsweise Social Scoring, Scoring bzw. andere KI-gestützte Risikobewertungen, Nudging, politisches oder kommerzielles Microtargeting, algorithmische Preisdifferenzierung, Dark Patterns, Empfehlungssysteme oder die Gestaltung der Interaktion von KI-Agenten (agentic AI).
Der Einsatz generativer KI zur Erkennung und Beeinflussung menschlichen Verhaltens birgt jedoch vielfältige Risiken, wie z. B. Probleme beim Schutz der Menschenwürde, der informationellen Selbstbestimmung, der freien Persönlichkeitsentfaltung oder Diskriminierungsrisiken. Insbesondere besteht die Gefahr, dass menschliche Verhaltensweisen, die von bestimmten Akteuren als wünschenswert erachtet werden, reduziert und quasi-normiert werden. Ferner können systemische Risiken entstehen, da u. a. generative KI-Modelle auch in andere KI-Systeme integriert werden und sich so die Risiken vervielfachen können.
Ziel der Forschungen ist es, die vielfältigen staatlichen und privaten Nutzungspraktiken generativer KI zu kartieren, die der Verhaltenserkennung, -beeinflussung und -steuerung sowie der Differenzierung von Personen auf Basis ihres Verhaltens dienen. Darüber hinaus sollen ihre Wirkungsweisen und die damit verbundenen gesellschaftlichen Risiken und Risikoursachen analysiert, die bestehende Governance mit vielfältigen Regulierungen überprüft und gegebenenfalls Handlungsbedarfe und -optionen aufgezeigt werden.
Diese Untersuchungen erfolgen in der Fortsetzungsphase des interdisziplinären Projekts „Systemische und existenzielle Risiken der KI“. In dieser Projektphase sollen Fragestellungen zu spezifischen gesellschaftlichen Folgen generativer KI in verschiedenen Anwendungskontexten bearbeitet werden.
Kontakt
Karlsruher Institut für Technologie (KIT)
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 3640
76021 Karlsruhe
Tel.: 0721 608-26116
E-Mail
