Gesellschaftliches Vertrauen in lernende Systeme

Projektbeschreibung

Beschreibung des Projekts als Poster
Projekt-Poster

1. Projektphase (2020-2022)

Im Rahmen der grundfinanzierten Eigenforschung werden Forschungsfragen bearbeitet, die im Kontext der programmorientierten Förderung zur Profilbildung des ITAS im Helmholtz Forschungsbereich Information im Themenbereich „Lernende Systeme“ beitragen.

Die Schwerpunkte der Forschung sind vor allem die Erarbeitung und Rahmung eines kontextspezifischen Verständnisses von Verfahren, Methoden und Folgen lernender Systeme als „enabling technologies“ sowie Möglichkeiten für einen verantwortungsvollen Umgang mit potentiellen Risiken in unterschiedlichen Anwendungsbereichen. Da bei automatisierten Anwendungen und Entscheidungssystemen auch die übergeordnete Problematik von Vertrauen in Informationssysteme betroffen ist, sollen insbesondere relevante Fragestellungen zum gesellschaftlichen Vertrauen in lernende Systeme erschlossen werden. Hierbei wird auf vorangegangene und parallellaufende Arbeiten der Projektmitglieder zu Risikoforschung, Autonomem Fahren, Automatisierung der Arbeitswelt, Adversarial AI, Explainable AI und Wissenschaftstheorie der Computational Sciences aufgebaut und diese weiterentwickelt bzw. für die Anwendung im Rahmen des Themenfelds fruchtbar gemacht. Eine wichtige Aufgabe des Projekts ist es, die bisher unverbundenen Arbeiten zu diesem Themenfeld am ITAS zusammenzuführen und eine gemeinsame Perspektive zu entwickeln. Hierzu gehört auch die Organisation des Wissenstransfers über Projekt- und Forschungsgruppen hinweg und die Intensivierung der Zusammenarbeit mit Informatikinstituten des KIT.

2. Projektphase (2023-2025)

Während der ersten Projektphase wurde die Annahme bestätigt, dass der Projektschwerpunkt gesellschaftliches Vertrauen in lernende Systeme ein übergreifendes Thema darstellt, das zunehmend an gesellschaftlicher (und politischer) Relevanz gewinnt. Vertrauen wird nicht nur im KI-Diskurs, sondern allgemein im Digitalisierungsdiskurs als wichtige Ressource begriffen.

In der zweiten Projektphase wird die konzeptuelle Arbeit fortgeführt und weiter konkretisiert. Im Zentrum stehen:

  1. Vertrauen in regulatorische Institutionen und dessen Wechselbeziehung mit dem Vertrauen in KI: Vertrauen in KI muss als soziotechnisches Phänomen begriffen werden, welches über die Technologie hinweg von mehreren Akteuren und politischen Dynamiken beeinflusst wird. Hierzu gehören insbesondere die aktuellen Bemühungen KI auf EU-Ebene zu regulieren. Es mangelt diesem Prozess jedoch nach wie vor an begrifflicher Schärfe und empirischem Wissen.
  2. Die Relevanz von Vertrauen im Umgang mit Mis- und Desinformationen und dessen Auswirkung auf die gesellschaftliche und politische Meinungsbildung: Künstliche Intelligenz spielt hierbei bereits eine wichtige Rolle und wird noch weiter an Bedeutung gewinnen.
  3. Die Rolle von Vertrauen in KI-getriebenen Automatisierungsprozessen: Mit Blick auf die hohe Kontextspezifik von Künstlicher Intelligenz werden Vertrauenskonstellation von KI in ausgewählten Kontexten in den Blick genommen, in denen ein großes gesellschaftliches Veränderungspotenzial zu erwarten ist, z. B. Arbeitswelt, Mobilität, Energie.

Publikationen


2024
Zeitschriftenaufsätze
Heil, R.; Wendt, K. von
Künstliche Intelligenz außer Kontrolle?
2024. TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis, 33 (1), 64–67. doi:10.14512/tatup.33.1.64VolltextVolltext der Publikation als PDF-Dokument
Sinozic-Martinez, T.; Jahnel, J.
TA for human security: Aligning security cultures with human security in AI innovation
2024. TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis, 33 (2), 16–21. doi:10.14512/tatup.33.2.16VolltextVolltext der Publikation als PDF-Dokument
Vorträge
Ackerl, C.
Technikfolgenabschätzung (TA) & ihr Verhältnis zur Antizipierbarkeit von Zukünften
2024. Ethik des Human Enhancement - am Beispiel Neurotech. Pilot Modul "Technikfolgenabschätzung, Nachhaltigkeit und Resposible Innovation", Studiengang Human-Centered Computing, FH Hagenberg (2024), Hagenberg im Mühlkreis, Österreich, 16. November 2024 
Ackerl, C.
"Talking ‘bout methods": Reflecting choices, pathways and limitations
2024. KLIREC (Klima, Ressourcen und Circular Economy) Colloquium on Research Design and Methods "Kooperatives Promotionskolleg KLIREC" (2024), Pforzheim, Deutschland, 10. Juni 2024 
Ackerl, C.
Vorausschauende Praktiken (Anticipatory practices) in der Energiewende als sozio-technische Transformation: Konzeptionelle Verflechtungen von Vertrauen, KI-/ML-basierten Praktiken & Flexibilität
2024. Fachsymposium ITAS-BAuA “KI in der Arbeitswelt: Systematiken zur Gestaltung und Technikfolgenabschätzungen“ (2024), Dresden, Deutschland, 24.–25. Oktober 2024 
Ackerl, C.
Closing the gap between acceptance and acceptability? Conceptualising the role of trust via the example of the energy transition as socio-technical transformation
2024. European Association for the Study of Science and Technology and the Society for Social Studies of Science: Conference Making and Doing Transformations (EASST/4S 2024), Amsterdam, Niederlande, 16.–19. Juli 2024 
Ackerl, C.
In den Prozess vertrauen? Konzeptionelle Verflechtungen von künstlicher Intelligenz, Flexibilität und Vertrauen in der Infrastrukturtransformation des Energienetzes als sozio-technisches System
2024. Tagung des DGS-Arbeitskreises „Soziologie der Nachhaltigkeit“ (SONA) und der DGS-Sektion Umwelt- und Nachhaltigkeitssoziologie (2024), Universität Stuttgart, 6.–7. Juni 2024 
Ackerl, C.
Anticipatory Practices within the Development of Smart Grids: Conceptual Entanglements of Trust, Artificial Intelligence, and Flexibility
2024. The EU-SPRI Forum Annual Conference "Governing technology, research, and innovation for better worlds" (2024), Enschede, Niederlande, 5.–7. Juni 2024 
Ackerl, C.
Trust (in) the process? Accounting for trust dimensions within urgent socio-technical transformation processes as a challenge for both policymakers and transdisciplinary TA
2024. 11. Konferenz des Netzwerks Technikfolgenabschätzung "Politikberatungskompetenzen heute" (NTA 2024), Berlin, Deutschland, 18.–20. November 2024 
Bareis, J.
Hype: opportunist appropriation or neglected future concept?
2024. GVLS Group Open Discussion Session (2024), Karlsruhe, Deutschland, 26. November 2024 
Bareis, J.
Dimensionen des Vertrauens bei algorithmischen Systemen
2024, September 30. Dimensionen des Vertrauens bei algorithmischen Systemen, Zentrum verantwortungsbewusste Digitalisierung (ZEVEDI 2024), Frankfurt am Main, Deutschland, 30. September 2024 
Eppler, W.; Heil, R.
Generative KI für TA
2024. 11. Konferenz des Netzwerks Technikfolgenabschätzung "Politikberatungskompetenzen heute" (NTA 2024), Berlin, Deutschland, 18.–20. November 2024 VolltextVolltext der Publikation als PDF-Dokument
Eppler, W.; Heil, R.
Nicht in der Welt: Benötigen LLMs Erfahrungswissen?
2024. BAUA (2024), Dresden, Deutschland, 24.–25. Oktober 2024 VolltextVolltext der Publikation als PDF-Dokument
Eppler, W.; Heil, R.
Towards a Pragmatical Grounding of Large Language Models
2024. Forum on Philosophy, Engineering, and Technology (fPET 2024), Karlsruhe, Deutschland, 17.–19. September 2024 VolltextVolltext der Publikation als PDF-Dokument
Heil, R.
Generative KI in der Wissenschaft
2024, Oktober 28. Weiterbildungsprogramm "Künstliche Intelligenz in der Wissenschaft" der Potsdam Graduate School (2024), Potsdam, Deutschland, 28. Oktober 2024 
Heil, R.
Künstliche Intelligenz und die Tücken der Anthropomorphisierung
2024. Führungsakademie Baden-Württemberg (2024), Karlsruhe, Deutschland, 26. September 2024 
Heil, R.
Gesellschaftliche Folgen künstlicher Intelligenz
2024. Europäischer AI Act : Vortrag und Diskussion zu Chancen, Risiken und Europarecht (2024), Karlsruhe, Deutschland, 15. März 2024 
Heil, R.
KI-generierte Inhalte als gesellschaftliche Herausforderung
2024. Zwischen Risiko und Sicherheit: Den digitalen Wandel gestalten (2024), Karlsruhe, Deutschland, 15. Februar 2024 
Jahnel, J.
Wie KI-generierte Desinformation unsere Gesellschaft gefährdet
2024, Oktober 22. Treffen des Arbeitskreises KI der IHK bei Vision Tools Bildanalyse Systeme GmbH (2024), Waghäusel, Deutschland, 22. Oktober 2024 
Jahnel, J.
Deepfakes und Demokratie
2024, Oktober 8. E-Learning Kurs Digitale Ethik, Landeszentrale für Politische Bildung (2024), Online, 8. Oktober 2024 
Jahnel, J.
Generative künstliche Intelligenz - warum betrifft das unsere Demokratie?
2024, Oktober 2. Lange Nacht der Demokratie (2024), Starnberg, Deutschland, 2. Oktober 2024 
Jahnel, J.
Gefährdet KI-generierte Desinformation unsere Demokratie?
2024. Wie politisch sind ChatGPT & Co.? (2024), Online, 25.–26. Januar 2024 
Jahnel, J.; Albrecht, S.; Kehl, C.; Riousset, P.; Milchram, C.; Nentwich, M.
Generative KI als Instrument in der Politikberatung – Bündelung von Erfahrungen und Reflexion aus der Praxis
2024. 11. Konferenz des Netzwerks Technikfolgenabschätzung "Politikberatungskompetenzen heute" (NTA 2024), Berlin, Deutschland, 18.–20. November 2024 
Jahnel, J.; Kehl, C.; Riousset, P.; Albrecht, S.; Milchram, C.
Generative KI in der Politikberatung – brauchen wir spezifische Leitlinien?
2024. TA24 - Methoden für die Technikfolgenabschätzung : im Spannungsfeld zwischen bewährter Praxis und neuen Möglichkeiten (2024), Wien, Österreich, 3.–4. Juni 2024 
2023
Zeitschriftenaufsätze
Vorträge
Bareis, J.
How governance fails to comprehend trustworthy AI
2023. 6th International Conference on Public Policy (ICPP6 - Toronto 2023 2023), Online, 27.–29. Juni 2023 
Bareis, J.
Trustworthy AI and its regulatory discontents
2023. Austrian Institute of Technology - AI Ethics Lab (2023), Online, 23. März 2023 
Bareis, J.
The Torn Regulatory State: Governing Trustworthy AI in a Contested Field
2023. Deutsches Zentrum für Luft- und Raumfahrt (DLR 2022), Bremerhaven, Deutschland, 19. Januar 2023 
Heil, R.
Unkontrollierbare künstliche Intelligenz – ein existenzielles Risiko?
2023. Montagskonferenz des Instituts für Übersetzen und Dolmetschen (2023), Heidelberg, Deutschland, 23. November 2023 
Heil, R.
Künstliche Intelligenz - Einführung
2023, Oktober 4. Volkshochschule (2023), München, Deutschland, 4. Oktober 2023 
Heil, R.
ChatGPT und die Folgen
2023. ChatGPT & Co: Kluge Nutzung für den Erfolg im Business und im Alltag (2023), Online, 18. Juli 2023 
Heil, R.
Einige ethische Implikationen großer Sprachmodelle
2023. Sondersitzung des HND-BW Lenkungskreises und HND-BW Expert*innenkreises "Standortbestimmung: Auswirkungen von ChatGPT auf Lehre und Studium" (2023), Online, 25. April 2023 
Jahnel, J.
Deepfakes betreffen uns alle!
2023, November 23. Podiumsveranstaltung aus der Reihe #digitalk (2023), Karlsruhe, 23. November 2023 
Jahnel, J.
Die Gefahr von KI für die Demokratie
2023, Oktober 31. Bremer Gesellschaft zu Freiburg im Breisgau (2023), Freiburg im Breisgau, Deutschland, 31. Oktober 2023 
Jahnel, J.
Chat GPT und der Tanz um die künstliche Intelligenz
2023. Podiumsdiskussion : CSR-Circle und HR-Circle (2023), Online, 3. Mai 2023 
Jahnel, J.
Deepfakes und ChatGPT: Von generierten Gesichtern und stochastischen Papageien
2023. ITA-Seminar der Österreichischen Akademie der Wissenschaften (ÖAW) (2023), Wien, Österreich, 2. Mai 2023 
Jahnel, J.; Nierling, L.
Deepfakes: A growing threat to the EU institutions’ security
2023. Interinstitutional Security and Safety Days (2023), Online, 2. März 2023 
2022
Vorträge
Bareis, J.
Trustworthy AI. What does it actually mean?
2022. WTMC PhD Spring Workshop "Trust and Truth" (2022), Deursen-Dennenburg, Niederlande, 6.–8. April 2022 
Bareis, J.
Two layers of trust: Discussing the relationship of an ethical and a regulatory dimension towards trustworthy AI
2022. Trust in Information (TIIN) Research Group at the Höchstleistungsrechenzentrum (HLRS) Stuttgart (2022), Stuttgart, Deutschland, 16. Februar 2022 
Bareis, J.; Heil, R.
Trust (erosion) in AI regulation. Dimensions, Drivers, Contradictions?
2022. 20th Annual STS Conference : Critical Issues in Science, Technology and Society Studies (2022), Graz, Österreich, 2.–4. Mai 2022 
Heil, R.
"I’m sorry Dave, I’m afraid I can’t do that“ – Von Vertrauen, Verlässlichkeit und babylonischer Sprachverwirrung
2022. 37. AIK-Symposium "Vertrauenswürdige Künstliche Intelligenz" (2022), Karlsruhe, Deutschland, 28. Oktober 2022 
Heil, R.; Bareis, J.
Erklären und Vertrauen im Kontext von KI
2022. Fachsymposium ITAS-BAuA "Digitalisierung in der Arbeitswelt: Konzepte, Methoden und Gestaltungsbedarf" (2022), Karlsruhe, Deutschland, 2.–3. November 2022 
Heil, R.; Bareis, J.
Künstliche Intelligenz - Einführung für die Jahrgangsstufe 11
2022. Theodor-Heuss-Gymnasium (2022), Mühlacker, Deutschland, 11. Oktober 2022 
Heil, R.; Bareis, J.
Künstliche Intelligenz - Einführung für die Jahrgangsstufe 10
2022. Theodor-Heuss-Gymnasium (2022), Mühlacker, Deutschland, 11. Oktober 2022 
Jahnel, J.
Was wir von der KI-Regulierung in der digitalen Kommunikation für den Arbeitskontext lernen können
2022. Fachsymposium ITAS-BAuA (2022), Karlsruhe, Deutschland, 3. November 2022 
Jahnel, J.
KI in der Digitalen Kommunikation
2022. Medien Triennale Südwest "KI & Medien gemeinsam gestalten" (#MTSW 2022), Saarbrücken, Deutschland, 12. Oktober 2022 
Jahnel, J.; Hägle, O.; Hauser, C.; Escher, S.; Heil, R.; Nierling, L.
Deepfakes & Co: Digital misinformation as a challenge for democratic societies
2022. 5th European Technology Assessment Conference "Digital Future(s). TA in and for a Changing World" (ETAC 2022), Karlsruhe, Deutschland, 25.–27. Juli 2022 
Jahnel, J.; Nierling, L.
Über die Folgen von perfekten Täuschungen und die Herausforderungen für eine multidimensionale Regulierung
2022. "Wie viel Wahrheit vertragen wir?" - Ringvorlesung / Universität Köln (2022), Online, 28. Juni 2022 
Jahnel, J.; Nierling, L.
Deepfakes: die Kehrseite der Kommunikationsfreiheit
2022. Gastvortrag Universität Graz, Siebente Fakultät (2022), Online, 1. Juni 2022 
Wissenschaftskommunikation im Internet
2021
Buchaufsätze
Heil, R.
Künstliche Intelligenz/Maschinelles Lernen
2021. Handbuch Technikethik. Hrsg.: A. Grunwald, 424–428, J.B. Metzler. doi:10.1007/978-3-476-04901-8_81
Vorträge
Bareis, J.
Trust (erosion) in AI regulation : Dimensions, Drivers, Contradictions?
2021. International Lecture Series by Fudan University: Trust and AI (2021), Online, 14. Dezember 2021 
Bareis, J.
Zwischen Agenda, Zwang und Widerspruch. Der liberale Staat und der Fall KI
2021. NTA9-TA21: Digital, Direkt, Demokratisch? Technikfolgenabschätzung und die Zukunft der Demokratie (2021), Online, 10.–12. Mai 2021 
Heil, R.
Collecting Data, Tracing & Tracking
2021. Big Data-Hype: Aus den Augen, aus dem Sinn? „Das Öl des 21. Jahrhunderts“: Früh wieder still und zur Selbstverständlichkeit geworden ("Deep Dive" Online-Experten-Roundtable 2021), Köln, Deutschland, 10. März 2021 
Jahnel, J.
Herausforderungen bei der Regulierung von Deepfakes
2021. Fachkonferenz „Vertrauen im Zeitalter KI-gestützter Bots und Fakes: Herausforderungen und mögliche Lösungen“ (2021), Online, 4. November 2021 
Nierling, L.
Technikfolgenabschätzung für eine digitale Arbeitswelt
2021. Zukunftsforum Schweinfurt : Robotik und digitale Produktion (2021), Schweinfurt, Deutschland, 7. Juni 2021 
Renftle, M.; Trittenbach, H.; Müssener, C.; Böhm, K.; Poznic, M.; Heil, R.
Evaluating the Effect of XAI on Understanding of Machine Learning Models
2021. Philosophy of Science meets Machine Learning (2021), Tübingen, Deutschland, 9.–12. November 2021 
2020
Vorträge
Bareis, J.; Bächle, T. C.
Sociotechnical weapons: AI myths as national power play
2020. Locating and Timing Matters: Significance and agency of STS in emerging worlds (EASST/4S 2020), Online, 18.–21. August 2020 

Kontakt

Reinhard Heil
Karlsruher Institut für Technologie (KIT)
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 3640
76021 Karlsruhe

Tel.: 0721 608-26815
E-Mail