Kritische Technikkompetenz für konstruktiven Umgang mit KI-basierter Technologie in Betrieben

Der Einsatz Künstlicher Intelligenz (KI) ist mit vielen Erwartungen verknüpft und hat mittelfristig enorme Effekte auf die Arbeitswelt. Neben angestrebten Effizienzgewinnen in der Arbeitsorganisation gilt KI als Hoffnungsträger  zur Stärkung der Wissensarbeit. Doch wie können neue, KI-basierte Automatisierungsformen die Arbeitspraktiken der Wissensarbeit konstruktiv ergänzen? Welche Herausforderungen gibt es dabei, und welche Rolle spielen Wissen und technische Grundkompetenzen?

Um das Potenzial KI-basierter Technologien in der Arbeitspraxis konstruktiv ausschöpfen zu können, braucht es vor allem Wissen: über Funktionsweisen, Möglichkeiten aber auch Grenzen und die damit verbundenen Auswirkungen der Technologien auf die Arbeitsorganisation. Das Forschungsprojekt untersucht daher, wie sich Arbeitspraktiken der Wissensarbeit verändern und erarbeitet darauf basierend Lösungsansätze zur Stärkung von kritischer Technikkompetenz zum verantwortungsvollen Einsatz KI-basierter Technologien (Critical AI Literacy).

Ein Ausgangspunkt des Projekts ist die These, dass die durch den KI-Einsatz entstehenden neuen Automatisierungsformen das Risiko von Automation Bias erhöhen können. Das hängt von verschiedenen Faktoren ab. Automation Bias bedeutet wörtlich automatisierte Verzerrung und hat mehrere Ebenen: Zum einen die menschliche Tendenz, Technologien „blind“ zu vertrauen, die u.a. von technischer Kompetenz abhängt. Zum anderen die technische Komplexität und Intransparenz, die dazu führen kann, dass Menschen nicht mehr in der Lage sind, technische Abläufe zu verstehen und richtig zu interpretieren. Das Risiko ist insbesondere dann begünstigt, wenn der Anwendungskontext einer Technologie nicht hinreichend mit der Arbeitspraxis übereinstimmt, es also ein Missverhältnis zwischen technischer Funktionsweise und praktischen Anforderungen in bestimmten Kontexten gibt. Das kann neben unentdeckten technischen Fehlern zu Fehlentscheidungen und ineffezienteren Arbeitsabläufen führen.

Im Rahmen des Projekts werden diese Faktoren und ihre Bedeutung in der betrieblichen Praxis genauer analysiert. Dazu werden Fallstudien in ausgewählten Bereichen und qualitative Interviews mit Expert:innen aus Forschung und betrieblicher Praxis durchgeführt. Ein Ziel ist es zentrale Einflussfaktoren, Problemfelder und Kriterien für Schlüsselkompetenzen zu identifizieren.
Auf Basis der gewonnenen Erkenntnisse wird zu Projektende ein praxisorientierter Leitfaden für die Stärkung kritischer Technikkompetenz im Betrieb erarbeitet, um Problembewusstsein und konstruktiven, sozialverträglichen Umgang mit Digitalisierung und KI-basierten Technologien in Betrieben zu fördern.

Publikationen

Publikationen

  • Riedlinger, D. (2023). Walter Peissl zum Mitglied des Artificial Intelligence Advisory Boards ernannt. Ita-Newsfeed. Retrieved from https://www.oeaw.ac.at/ita/detail/news/ernennung-walter-peissl-im-artificial-intelligence-advisory-board
  • EPTA [Hrsg.],. (2023). Generative Artificial Intelligence. Opportunities, Risks and Policy challenges. EPTA Report 2023 (p. 88). Brussels. Retrieved from https://www.parlament.cat/document/composicio/394503200.pdf
  • Riedlinger, D. (2023). Chancen und Risiken im Umgang mit KI in der Arbeitswelt. Ita-Newsfeed. Retrieved from https://www.oeaw.ac.at/ita/detail/news/chancen-und-risiken-im-umgang-mit-ki-in-der-arbeitswelt
  • Strauß, S. (2021). “Don’t let me be misunderstood” - Critical AI literacy for the constructive use of AI technology. Tatup - Zeitschrift Für Technikfolgenabschätzung In Theorie Und Praxis, 30, 44-49. doi:10.14512/tatup.30.3.44
  • Stefan Strauß,. (2021). Deep Automation Bias: How to Tackle a Wicked Problem of AI?. Big Data And Cognitive Computing (Bdcc), 2021, 1-14. doi:10.3390/bdcc5020018
  • 1

Konferenzbeiträge/Vorträge

Konferenzbeiträge/Vorträge

  • 12.03.2024 , Wien
    Stefan Strauß: 
    CAIL - Critical AI Literacy: Kritische Technikkompetenz für konstruktiven Umgang mit KI-basierter Technologie in Betrieben - Vorläufige Zwischenergebnisse
    Projekt-Workshop
  • 23.11.2023 , Feldkirch
    Stefan Strauß: 
    Menschzentrierte KI Automatisierung: Zwischen Automation Bias und Critical AI Literacy
    Schafferei Konferenz 2023: Technikfolgenabschätzung aus Arbeitnehmer:innen Perspektive
  • 29.09.2023 , Wien
    Stefan Strauß: 
    Podiumsdiskussion: Künstliche Intelligenz? Worauf vertrauen wir noch? (Statement und Diskussion)
    APA Science Talk, Aula der Wissenschaften
  • 19.06.2023 , Linz
    Stefan Strauß: 
    TV-Diskussion: Künstliche Intelligenz im Vormarsch – wer behält Kontrolle über die Zukunft? (Statement und Diskussion)
    DORFTV Sendung Der Stachel im Fleisch CXLV, Kunstuniversität Linz
  • 09.05.2023 , Graz
    Stefan Strauß: 
    Automated for the people? a problem-oriented assessment framework to stimulate critical AI literacy
    STS Graz Conference: Critical Issues in Science, Technology and Society Studies
  • 21.03.2023 , Wien

    Menschzentrierter KI-Einsatz im betrieblichen Kontext - Beirat Arbeit und Technik (BAT)
    CAIL Projektworkshop
  • 25.07.2022 , Karlsruhe
    Stefan Strauß: 
    "Something wicked this way comes" – the role of deep automation bias for critical AI literacy
    5th European Technology Assessment Conference (ETAC5) July 25-27
  • 1

Artikel/Buchbeiträge

Artikel/Buchbeiträge

Laufzeit

01/2023 - 06/2024

Projektteam

  • Titus Udrea

Finanzierung