Wie verändert generative KI die Wissensbeschaffung?

Projektbeschreibung

Das Projekt beschäftigt sich mit der Frage, wie generative künstliche Intelligenz (KI) die Wissensbeschaffung, insbesondere in der problemorientierten Forschung, verändert. Die wissenschaftliche Wissensbeschaffung befindet sich in einer Phase tiefgreifender Transformation. Mit dem Aufkommen leistungsstarker KI-Methoden, insbesondere großer Sprachmodelle (Large Language Models, LLMs), werden traditionelle Formen der Literaturarbeit, der Wissensrepräsentation und der Synthese zunehmend durch automatisierte Verfahren ergänzt oder gar ersetzt. Die Diskussion über die Auswirkungen von KI auf die wissenschaftliche Wissensbeschaffung kann nicht allein technisch geführt werden, sondern hat auch epistemologische und soziale Dimensionen.

Untersucht werden:

  1. Epistemische Grundlagen generativer KI: Generative KI-Systeme arbeiten mit epistemischen Modellen der Wissensgenerierung, die vor allem auf statistischen Verfahren und maschinellem Lernen basieren. Damit unterscheiden sie sich wesentlich von menschlichen Erkenntnispraktiken, in denen Bedeutung durch Praktiken sozial situiert und hermeneutisch erfasst und produziert wird. Eine wichtige Voraussetzung für den verantwortungsbewussten Einsatz generativer KI in der wissenschaftlichen Wissensbeschaffung ist, dass Anwender*innen sich der grundlegenden Funktionsweisen und Charakteristika dieser Technologie bewusst sind. Um dies zu gewährleisten, wird unter besonderer Berücksichtigung der Anforderungen der wissenschaftlichen Praxis eine allgemeinverständliche Einführung in die Funktionsweise generativer KI, den damit verbundenen Wissenstypus und die damit einhergehenden Herausforderungen erstellt.
  2. Dynamiken von Vertrauen, Vertrauenswürdigkeit und Verantwortungsübertragung: Untersucht wird, wie Vertrauen in generative KI innerhalb von Wissensbeschaffungsprozessen entsteht, angepasst und begründet wird. Im Zentrum steht die Frage, inwiefern die Vertrautheit mit generativer KI ein Schlüsselmoment bei der Übergabe epistemischer Verantwortung darstellt und wie Anthropomorphisierungsprozesse den Vertrauensaufbau prägen. Ziel ist es, ein vertieftes Verständnis der Dynamiken von Vertrauen, Vertrauenswürdigkeit und Vertrauensanpassung zu gewinnen und daraus abzuleiten, wie diese mit der Verantwortungsübertragung in KI-gestützten Wissensprozessen zusammenhängen. Dazu wird eine narrative Literaturanalyse zu Vertrauen, Vertrauenswürdigkeit und Vertrauensadjustierung in der Mensch-Technik-Interaktion durchgeführt, mit besonderem Fokus auf generative KI.
  3. Chancen und Risiken neuer Arbeitsteilung in der professionellen Wissensbeschaffung und Wandel der wissenschaftlichen Wissensproduktion: Untersucht wird, für welche Aufgaben und mit welchen (neuen) Kompetenzen Praktiker*innen und Expert*innen generative KI in der professionellen Wissensbeschaffung nutzen und welche Potenziale und Risiken sich dadurch für Qualitätsstandards in Forschungsorganisationen sowie in der Wissenschaft ergeben. Zudem werden Nutzungspraktiken und -erfahrungen von professionellen Praktiker*innen in Wissenschaft und Forschung untersucht, um neue Arbeitsteilungen zwischen Menschen und technischen Systemen, unter besonderer Berücksichtigung der Herstellung und Erhaltung von Wissensintegrität und Forschungssouveränität, zu erschließen. Zu diesem Zweck werden Expert*inneninterviews sowie Fokusgruppengespräche mit wissenschaftlichen Praktiker*innen in verschiedenen akademischen Institutionen und Forschungseinrichtungen (Wissenschaftsverlage und Bibliotheken, Wissenschaftsorganisationen, Open Science und Open Data) durchgeführt.

Diese Untersuchungen erfolgen in der Fortsetzungsphase des interdisziplinären Projekts „Systemische und existenzielle Risiken der KI“. In dieser Projektphase sollen Fragestellungen zu den konkreten Folgen von generativer KI für Prozesse, Strukturen und Akteure in verschiedenen Anwendungskontexten bearbeitet werden.

Kontakt

Reinhard Heil
Karlsruher Institut für Technologie (KIT)
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 3640
76021 Karlsruhe

Tel.: 0721 608-26815
E-Mail