About

Fabian Fischer studied computer science and Science and Technology Studies (STS). In his research at the interface of these disciplines, he focusses on the critical examination of algorithmic and data-driven systems, including artificial intelligence. An additional focus of his work is on inter- and transdisciplinarity.

Education

After completing his degree in computer science at TU Wien (Dipl.-Ing., branch of study "Computational Intelligence"), he completed a master's degree in "Science-Technology-Society" at the University of Vienna.  He is currently studying for a doctorate in the field of STS at the University of Vienna.

Experience

Fabian Fischer worked as a researcher in various EU and nationally funded research and development projects at WU Vienna, Modul University and spin-offs from 2014-2019. During this time, he worked on scalable software for (near) real-time analysis of online media and so-called social media using natural language processing (NLP) and knowledge bases.

He then moved to the Multidisciplinary Design and User Research group at TU Wien/Informatik in 2019-2021 and was involved in the Centre for Informatics and Society (C!S), the inter-institutional Center for Technology and Society and the inter- and transdisciplinary aspern.mobil LABOR. During this time, he was also involved in the socio-technical analysis of the so-called AMS Algorithm.

He has been a member of the Young Section of the Austrian Research Foundation's Working Group on AI and Human Rights since 2023.

Before moving to the ITA in 2024, he was a University Assistant at the University of Applied Arts and was involved in the implementation of the experimental study programme "Cross-Disciplinary Strategies. Applied Studies in Art, Science, Philosophy, and Global Challenges" and developed innovative inter- and transdisciplinary teaching formats.

Projects

TA-Projects

Read more about event Online age assessment
Jul 2025 - Sep 2025

Online age assessment

Approaches and impact on consumers, as well as considerations between privacy protection and child protection.
Read more about event Digital transformation of public administration
Dec 2024 - Jun 2026

Digital transformation of public administration

Opportunities, best practices, digital sovereignty, and social sustainability
Digitales Amt am Smartphone (Bahmer, ITA)
Read more about event Generative AI and Democracy
Mar 2024 - Jan 2025

Generative AI and Democracy

New study: What do ChatGPT and deep fakes do to democracy? The ITA is investigating this question on behalf of the Austrian Parliament.
Read more about event FAIR-AI
Jan 2024 - Dec 2026

FAIR-AI

Fostering Austria's Innovative Strength and Research Excellence in Artificial Intelligence
Read more about event Monitoring for the Austrian Parliament
Dec 2022 - Nov 2026

Monitoring for the Austrian Parliament

Semiannual reports and short studies on current issues and trends as a service for parliamentarians
Read more about event AMS algorithm
Aug 2019 - Oct 2020

AMS algorithm

A sociotechnical analysis of the Austrian Public Employment Service’s profiling system

Publications

Refereed Contributions

  • Zur [Feld]Typik des Dazwischens: Die Gestaltung disziplinübergreifender Herausforderungen. / Schaffar, Andrea; Balcinovic, Adnan; Fischer, Fabian.
    In: Gruppe. Interaktion. Organisation. Zeitschrift fur Angewandte Organisationspsychologie, Vol. 2025, No. 56/3, 04.02.2026.
  • 1

Articles/Book Contributions

Books/Editorships

Research Reports

  • Altersfeststellung im digitalen Raum - Endbericht. / Fischer, Fabian; Pauls, Anna; Beltzung, Louise (Editor).
    Wien, 2025. 54 p.

    IDer Begriff der „Künstliche Intelligenz“ (KI) ist in der öffentlichen Debatte allgegenwärtig. Flächendeckende Anwendungen von KI, basierend auf umfassenderen und genaueren Daten-Analysen, wecken Hoffnungen auf eine effizientere, genauere und objektivere Gestaltung von wirtschaftlichen, arbeitsbezogenen oder im weiteren Sinn gesellschaftlichen Prozessen. Gleichzeitig bleiben Konsequenzen und „Nebeneffekte“ eines breiten Einsatzes dieser Anwendungen weitestgehend ungeklärt. Um KI zu regulieren, legte die Europäische Kommission im April 2021 einen Entwurf des „Artificial Intelligence Act“1 vor, um KI-Innovation unter größtmöglichem Schutz zu ermöglichen. Eine zentrale Forderung des AI Acts ist die Forderung nach Nachvollziehbarkeit bzw. Transparenz. Während der AI Act aber hauptsächlich auf Transparenz für Entwickler*innen, Produzent*innen und den kommerziellen Vertrieb abstellt, bleiben andere, potenziell (Mit-)Betroffene wie Konsument*innen, Verbraucher*innen oder Endnutzer*innen weitgehend unbeachtet. In diesem Spannungsfeld zwischen technischer Machbarkeit und gesellschaftlicher Auswirkungen lassen sich einige grundlegende Punkte zusammenfassend festhalten, die auch für gegenwärtige und zukünftige Regulierungsversuche relevant sind: Die Definition von KI bleibt umstritten: Einerseits vereint der Begriff der KI verschiedene gesellschaftsrelevante Ansprüche („schwache“ und „starke“ bzw. „generelle“ und „spezifische“ KI), deren Umsetzung von Akteuren sehr unterschiedlich eingeschätzt wird. Andererseits dient er als Sammelbecken für unterschiedliche (z. T. zusammenhängende) technische Ansätze, wie Algorithmen, maschinelles Lernen oder algorithmische Entscheidungs-systeme. Durch ein Verständnis von KI als soziotechnischem System, wie es in diesem Bericht vorgeschlagen wird, werden neben technischen Spezifizierungen auch soziale Kontexte verstärkt in den Blick genommen. Das rückt nicht nur die technische Gestaltbarkeit bestimmter Anwendungen in den Mittelpunkt des Interesses, sondern betont die vielfältigen Möglichkeiten, die sich aus der Einbindung von KI in soziale Kontexte, das Zusammenwirken von sozialen und technischen Aspekten und die Umgestaltung von sozialen Praktiken durch KI ergeben. Besonders der Begriff der algorithmischen Entscheidungssysteme2 ist hier von Bedeutung, weil die unmittelbaren Auswirkungen auf Konsument*innen, Endnutzer*innen und Betroffene hier einen hohen Stellenwert einnehmen. Ähnlich vielgestaltig präsentiert sich der Begriff der „Transparenz“. Bei der Frage von Vertrauen in KI-Anwendungen kommt dem Begriff der Transparenz, von dem dieser Bericht seinen Ausgangspunkt nimmt, eine zentrale Rolle zu. Transparenz ist allerdings vielschichtig (bezogen auf den Algorithmus, den Prozess, den Kontext) und in manchen Bereichen auch ambivalent (z. B. Geschäftsgeheimnisse). Sie kann einerseits technisch (als die detaillierte Offenlegung von Codes), andererseits prozedural (als zielgerichtete Kommunikation um mehr Verständnis bei der intendierten Zielgruppe zu erzeugen) verstanden werden. Durch diese inhärente Ambivalenz ist eine reine Forderung nach Transparenz nicht ausreichend, um KI verantwortungsvoll zu entwickeln, in Umlauf zu bringen und zu regulieren, auch, weil sie in einer rein technischen Interpretation auch zur Verschleierung von Verantwortung beitragen kann. Technische Ansätze wie die erklärbare KI (XAI) versuchen, Transparenz durch technische externe Lesehilfen herzustellen und außerhalb des Systems zu kommunizieren. Darüber hinaus konzentriert sich das Feld auf Möglichkeiten, die Erklärungen der Modellentscheidungen in die algorithmische Entwicklung einzubeziehen. Interpretierbarkeit stellt darauf ab, technisch nachvollziehbare Ergebnisse zu generieren. Nachvollziehbarkeit wiederum stellt auf ein Verständnis von verschiedenen Akteuren ab (so beispielsweise auch Konsument*innen oder Betroffene). Auf technischer Ebene stellt sich die Frage, ob die in diesem Bericht angesprochenen Ansätze der „erklärbaren KI“ (XAI) ausreichen um (technische) Transparenz – und in weiterer Folge soziale Nachvollziehbarkeit und Verantwortung – herzustellen. Aktuelle Forschungsansätze liefern interessante Ergebnisse, befinden sich aber noch in der Entwicklung. Da sie jedoch soziale Kontexte der Anwendungen und einen bewussten Umgang mit Wertentscheidungen nicht berücksichtigen, können Ansätze des XAIs auch nur eingeschränkt Wirkung in Richtung Verantwortung entfalten. In Erweiterung des Transparenzbegriffs betont ein Fokus auf Nachvollziehbarkeit (statt Transparenz) die soziale Dimension des Verstehens von KI-Anwendungen und damit der informierten (Endnutzer*innen- und Anwender*innen-)Entscheidung bzw. des verantwortungsvollen Umgangs mit KI. Abgestufte Transparenzregeln (je nach Adressatengruppe) erscheinen sinnvoll, wobei der institutionelle Rahmen entsprechend gestaltet sein muss. Die Bereitstellung notwendiger Ressourcen und die Erwerbung solcher Kompetenzen sind durch verantwortliche (öffentliche) Stellen zu garantieren. Unabhängige Institutionen müssen eingerichtet und mit entsprechenden Kompetenzen besetzt werden, um Transparenzforderungen, Beschwerden oder Klagen zu überprüfen und gegebenenfalls adäquat handeln zu können – gesellschaftliche Akzeptanz wird neben der notwendigen Transparenz nur durch entsprechende Regulierung und Institutionen herzustellen sein. In Bezug auf Governance sind die Ansprüche uneinheitlich: ob Transparenz (im Sinne der Offenlegung von Codes) oder Interpretierbarkeit ausreichen oder aufgrund sozialer Gegebenheiten (z.B. Geheimhaltungen) durchführbar sind, oder ob es wesentlicher ist, Entscheidungen für Betroffene nachvollziehbar zu gestalten, ist nach wie vor Gegenstand der wissenschaftlichen und politischen Debatte in der Gestaltung von verantwortungsvoller KI. Während zur Gestaltung von KI eine Auseinandersetzung mit dem technischen Status-quo unerlässlich ist, können aufgrund rein technischer Spezifikationen keine Aussagen über soziale Auswirkungen von KI-Systemen getroffen werden. Ansätze des (regulatorischen) Umgangs mit KI können sich daher nicht ausschließlich über technische Aspekte definieren, sondern müssen Auswirkungen von KI auf den Menschen in den Mittelpunkt des Interesses rücken. Eine Engführung einer Definition von KI tendiert dazu, Gefahren zu ignorieren, die durch den Einsatz etablierter IT-gestützter Ansätze bereits bestehen (z. B. Diskriminierung durch statistische Verfahren). Daher plädiert der Bericht für die Beibehaltung einer breiten Definition des KI-Begriffs, wie im AI Act vom im April 2021 ursprünglich vorgesehen. Während ein risikobasierter Ansatz beibehalten werden sollte, kann ein zu starker Fokus auf Hochrisiko-Technologien allein ebenfalls dazu führen, dass Anwendungen mit weitreichenden Konsequenzen per definitionem unreguliert (oder unterreguliert) bleiben. Um den risikobasierten Ansatz weiter auszubuchstabieren, gibt es Ansätze zu abgestuften Transparenzforderungen wie etwa Krafft/Zweig (2019). Die Verantwortung gegenüber Betroffenen von KI-Anwendungen durch regulierende Stellen, aber auch Entwickler*innen, Produzent*innen und Verwender*innen im AI Act muss hervorgehoben und gestärkt werden. Die aktive Einbindung von Betroffenen in Gestaltungsprozesse von KI oder algorithmischen Entscheidungssystemen durch inklusive partizipative und deliberative Ansätzen ist unerlässlich, um einen grundlegenden Schritt in Richtung Sozialverträglichkeit von KI-Anwendungen zu machen. Hierbei geht es um eine breite gesellschaftliche Diskussion, welche Werte in KI-Anwendungen eingeschrieben werden (sollen) und gesellschaftlich akzeptabel erscheinen. Gleichzeitig ermöglichen partizipative Ansätze, möglichst vielfältig potenzielle Auswirkungen von KI-Anwendungen aufzuzeigen. In KI-Anwendungen intendierte autonome Lernprozesse können nicht immer vollständig antizipiert werden. Entsprechend wird in der Literatur teilweise argumentiert, dass Entwickler*innen (auch bei vollständiger Transparenz in Bezug auf Codes) nicht vollständig für Konsequenzen des Einsatzes von KI verantwortlich gemacht werden können. Damit ergibt sich die Gefahr eines Verantwortungs-vakuums. Aus Sicht von Betroffenen könnte es hier schwierig sein, individuelle Rechte einzufordern. Daher ist menschliche Aufsicht („human oversight“) als eine Grundbedingung zu sehen, um KI-Anwendungen auf den Markt zu bringen. Sollte dies derzeit nicht möglich sein, erscheint ein Moratorium für bestimmte Methoden und Anwendungen sinnvoll, bis eine solche Aufsicht – im Sinne von Erklärbarkeit, Interpretierbarkeit und Nachvollziehbarkeit – garantiert werden kann. Eine realistische Einschätzung von KI (oder ADMs) basiert daher auf einer technischen und sozialen Komponente, die jeweils unterschiedlich zu bewerten sind. Schon gegenwärtig verändern sich Sozialsysteme unter dem Einsatz von IT- und KI-Systemen (Jobsuche, Zuteilung von Sozialleistungen, Credit Scoring). Gleichzeitig zieht der flächendeckende Einsatz von KI-Systemen weitere Veränderungen nach sich. Wichtiger als technisch-basierte Zugänge erscheinen regulatorische Ansätze, die gesellschaftliche Realitäten und Anwendungskontexte zumindest gleichwertig berücksichtigen, um eine aktive Gestaltung von KI-Systemen (und auch etablierter Methoden) zu ermöglichen. Um das Potenzial von KI ausschöpfen und eine verantwortungsvolle und sozialverträgliche Gestaltung voranzubringen erscheint es notwendig: ‒ die Berücksichtigung der Interessen von Konsument*innen und Betroffenen im KI-Diskurs und in der Entwicklung verstärkt einzubinden und einen möglichst ausdifferenzierten Kriterienkatalog zu erarbeiten, ‒ eine weit gefasste Definition von KI zu verwenden, die neben KI-Systemen im engeren Sinn auch etablierte IT-Systeme umfasst, deren Vorschläge und Entscheidungen Menschen in ihrer physischen, psychischen oder ökonomischen Existenz betreffen, ‒ Transparenz in ihren verschiedenen Dimensionen wie etwa dem Recht auf Information, als Nachvollziehbarkeit für Menschen und als institutionell verankerte Transparenz inklusive der notwenigen Verfahren (Rechtsbehelfe) umzusetzen, ‒ alle KI-Systeme die mit Menschen interagieren bzw. deren Entscheidungen sich auf das Leben und die Entfaltungsmöglichkeiten der Menschen auswirken, zu registrieren, einem grundlegenden Zertifizierungsprozess zu unterwerfen und im Verkehr kenntlich zu machen, ‒ einen flexiblen Regulierungsansatz zu verfolgen, der periodisch evaluiert wird, ‒ Forschung in jenen Bereichen zu fördern, die sich mit erklärbarer KI (XAI), Fairness, Gerechtigkeit, Rechenschaftspflicht und Verantwortlichkeit und mit gesellschaftlichen Auswirkungen der KI beschäftigen, ‒ KI-Systeme, die bestehende Grundrechte und Freiheiten sowie die Demokratie als solche schwer beschädigen oder aus ethischen Grundsätzen (Menschenwürde, Gleichheit, die Unantastbarkeit des Lebens usw.) zu verurteilen sind, zu verbieten und nicht zuletzt ‒ sollte die Letztverantwortung immer bei natürlichen oder juristischen Personen verbleiben. Solange Transparenz und Nachvollziehbarkeit nicht ausreichen, um menschliche Kontrolle zu gewährleisten, sollten Moratorien für bestimmte KI-Systeme überlegt werden.

  • Foresight und Technikfolgenabschätzung: Monitoring für das Österreichische Parlament, Ausgabe November 2025. / Nentwich, Michael; Fischer, Fabian; Gudowsky-Blatakes, Niklas et al.
    Wien, 2025. 88 p.
  • Human Organ-on-a-Chip. / Fischer, Fabian.
    Wien, 2025.
  • Foresight and Technology Assessment: Monitoring future issues for the Austrian Parliament (May 2023-May 2025). / Nentwich, Michael; Baumann, Manuel; Büscher, Christian et al.
    Wien, 2025. 88 p.
  • Foresight und Technikfolgenabschätzung: Monitoring für das Österreichische Parlament, Ausgabe Mai 2025. / Nentwich, Michael; Büscher, Christian; Fischer, Fabian et al.
    Wien, 2025. 88 p.
  • Gesellschaftliche Folgen hybriden Arbeitens. / Fischer, Fabian.
    Wien, 2025.
  • KI-Agenten. / Fischer, Fabian.
    Wien, 2025.
  • Generative KI und Demokratie: Endbericht Jänner 2025. / Nentwich, Michael; Bettin, Steffen; Favreuille, Saskia et al.
    2025. 156 p.

    Dieser Bericht stellt die Ergebnisse einer Technikfolgenabschätzungsstudie im Auftrag des österreichischen Parlaments dar. Ausgangspunkt war die Beobachtung, dass sich die relativ neue Technologie Generative Künstliche Intelligenz (KI) seit 2022 in großer Geschwindigkeit in vielfältige Lebensbereiche verbreitet. In manchen Bereichen wird ihr disruptives Potenzial attestiert und auch für die politische Sphäre werden nicht nur Chancen, sondern auch große Risiken gesehen.
    Dementsprechend stellt der vorliegende Bericht diese Chancen Generativer KI für die Demokratie im Überblick dar und widmet sich im Hauptteil der Analyse der vielfältigen Risiken für die politische Meinungsbildung und den öffentlichen Diskurs. Der Bericht beginnt einleitend mit einer Darstellung des Stands der Technik, insbesondere von Text-, Bild-, Video- und Tongeneratoren und technischen Ansätzen, um KI-generierte Inhalte zu erkennen. Im Einleitungskapitel werden auch grundlegende, untersuchungsrelevante Begriffe wie Desinformation, Fake News und Co. erläutert. Ein eigenes Kapitel ist weiteren gesellschaftsrelevanten Folgen Generativer KI, etwa in den Bereichen Umwelt und Arbeit, gewidmet. Im letzten Teil werden Handlungsoptionen in den Bereichen Regulierung, Organisation und Technik erörtert und schließlich Schlussfolgerungen für das österreichische Parlament und die interessierte Öffentlichkeit gezogen.

  • Self-driving Labs. / Fischer, Fabian.
    Wien, 2024.
  • Foresight und Technikfolgenabschätzung: Monitoring für das Österreichische Parlament, Ausgabe November 2024. / Nentwich, Michael; Fischer, Fabian; Gudowsky-Blatakes, Niklas et al.
    Wien, 2024. 88 p.
  • Ein nicht-englisches KI-Sprachmodell. / Peissl, Walter; Fischer, Fabian.
    Wien, 2024.
  • 1

Conference Papers/Speeches

  • kirchlichen pädagogischen Hochschule (kPH) Wien/NÖ

    Wie verändert KI unsere demokratische Gesellschaft?

    Fischer, F. (Speaker)

    23 Oct 2025

  • N/A

    Generative KI und Demokratie - Präsentation des Endberichts

    Nentwich, M. (Speaker) & Fischer, F. (Speaker)

    12 Mar 2025

  • 1

Short Articles

  • Altersfeststellung im digitalen Raum (ITA Dossier Nr. 88, Feb. 2026). / Fischer, Fabian.
    2 p. 2026. (ITA-Dossiers de).

    -> Zunehmender Leidensdruck bei Minderjährigen wird mit digitalen Angeboten in Zusammenhang gebracht.
    -> Altersbeschränkungen werden als einfache Lösung diskutiert.
    -> Viele Verfahren, das Alter festzustellen, sind risikobehaftet; datensparsame Methoden sind in Entwicklung und klar vorzuziehen.
    -> Altersbeschränkungen alleine werden wesentliche Probleme nicht lösen – Minderjährige könnten auf unregulierte Angebote ausweichen.
    -> Alle Kinderrechte müssen berücksichtigt werden. Es braucht auch eine Abschätzung der Folgen für Verbraucher:innen.

  • Generative AI and democracy (ITA Dossier No 82en, April 2025). / Nentwich, Michael; Fischer, Fabian.
    2 p. 2025. (ITA-Dossiers en).

    -> Generative artificial intelligence (AI) holds both opportunities and, in some cases, considerable risks for democracy.
    -> Generative AI significantly simplifies,reduces the cost of, and enhances the persuasiveness of non-fact-based manipulative content (so-called fake news) on social media.
    -> The many risks also include loss of trust, concentration of power, hybrid threats, and much more.
    -> Opportunities exist, for example, in processing information or record keeping.
    -> A balanced mix of measures must be taken to protect democratic processes

  • Generative KI und Demokratie (ITA Dossier Nr. 82, April 2025). / Nentwich, Michael; Fischer, Fabian.
    2 p. 2025. (ITA-Dossiers de).

    -> Generative Künstliche Intelligenz (KI) birgt
    für die Demokratie sowohl Chancen als auch
    zum Teil erhebliche Risiken.
    -> Insbesondere nicht-faktenbasierte manipulative Inhalte (sog. Fake News) in den Sozialen Medien werden durch Generative KI deutlich einfacher, billiger und überzeugender.
    -> Zu den vielen Risiken zählen weiters Vertrauensverlust, Machtkonzentration, hybride Bedrohungen u.v.m.
    -> Chancen bestehen etwa in der Informationsaufbereitung oder bei der Protokollierung.
    -> Zum Schutz der demokratischen Prozesse
    sind konsequente Maßnahmen zu ergreifen.

  • 1

Miscellaneous

Dipl.-Ing. BSc MA

Contact

Tel.: +43 (0)1 515 81-6574
Fax: (+43-1-) 515 81-6570
Bäckerstraße 13, 1010 Vienna
fabian.fischer(at)oeaw.ac.at

vCard