Künstliche Intelligenz zwischen Vertrauen und (Ent-)Täuschung
09.01.2026
Wie echt kann eine Unterhaltung mit einer Maschine sein? Und was passiert, wenn Maschinen beginnen, uns zuzuhören – wirklich zuzuhören? Astrid Weiss, Mitglied der Jungen Akademie der Österreichischen Akademie der Wissenschaften (ÖAW), Soziologin und Expertin für Human-Robot Interaction, forscht an der Schnittstelle von Mensch, Maschine und Gesellschaft. An der Technischen Universität Wien untersucht sie, wie Systeme der künstlichen Intelligenz Vertrauen schaffen, aber auch Verantwortungen verschieben können.
Im Gespräch beleuchtet Weiss unter anderem die Grenzen künstlicher Empathie und die Frage, warum eine „authentische Beziehung“ zur Technologie eine große gesellschaftliche Herausforderung ist.
Vertrauen und Verantwortung
Welche Aspekte der Mensch-Maschine-Interaktion sind für Sie besonders interessant?
Astrid Weiss: Besonders interessant an der Mensch-Maschine-Interaktion finde ich die Frage, wie adaptive intelligente Systeme – also rechnergestützte Systeme, die ihr Verhalten selbstständig an neue Situationen anpassen können, indem sie aus Erfahrungen oder Daten lernen – unsere Beziehungen sowohl zu anderen Menschen als auch zu Technologien verändern. Mich fasziniert, wie Effizienzgewinne und kreative Möglichkeiten mit Risiken wie Manipulation, Verantwortlichkeitslücken und dem Verlust von Authentizität einhergehen. Zentral ist für mich das Konzept der authentischen Beziehung: Wie können wir Interaktionen mit Technologien so gestalten, dass sie Vertrauen fördern, menschlichen Beitrag sichtbar machen und persönliche, verantwortungsvolle Begegnungen ermöglichen? Spannend ist dabei die Balance zwischen technischer Effizienz und wahrgenommener authentischer Interaktionserfahrung.
In welchen Situationen erleben Sie, dass KI-gestützte Dialogsysteme die menschliche Kommunikation sinnvoll ergänzen – und wo stoßen sie an ihre Grenzen?
Weiss: In dem Projekt „Caring Robots - Robotic Care“ vom Österreichischen Wissenschaftsfonds FWF untersuchen wir derzeit, inwiefern personalisierte Chatbots auf Basis großer Sprachmodelle (LLMs) in der Biografiearbeit mit Menschen mit Demenz unterstützend eingesetzt werden können. Dieser Ansatz ist äußerst spannend, wirft jedoch auch zahlreiche ethische Fragen und Risiken auf: Wie kann sichergestellt werden, dass Nutzer:innen verstehen, dass sie mit einer KI und nicht mit einem Menschen interagieren? Und wie sollte mit sensiblen, persönlichen Informationen umgegangen werden, die der KI im Gespräch anvertraut werden? Zugleich stellt sich eine zentrale Kosten-Nutzen-Frage: In welchem Maß können solche Chatbots tatsächlich zur Aktivierung und emotionalen Teilhabe von Menschen mit Demenz beitragen und eine personalisierte Pflege verbessern – und wie lassen sich diese potenziellen Vorteile verantwortungsvoll gegen die genannten ethischen Risiken abwägen?
Akzeptanz entsteht dann, wenn eine Technologie als sinnvoll, verlässlich und bereichernd für das eigene Leben erlebt wird.
Welche Faktoren beeinflussen denn, ob Menschen eine neue Technologie akzeptieren oder ablehnen, insbesondere im Alltag?
Weiss: Ob Menschen eine neue Technologie im Alltag akzeptieren oder ablehnen, hängt stark von ihren subjektiven Erwartungen, Wahrnehmungen und dem erlebten Nutzen ab. In unserer Studie mit dem sozialen Roboter Vector zeigte sich, dass anfängliche Neugier und Faszination zwar zur kurzfristigen Nutzung führen, diese jedoch schnell abnehmen, wenn kein klarer praktischer Mehrwert oder langfristiger sozialer Gewinn erkennbar ist. Enttäuschte Erwartungen an die Fähigkeiten der Technologie, mangelnde Integration in bestehende Alltagsroutinen und ein fehlendes Gefühl von Nützlichkeit führen häufig zur Ablehnung. Akzeptanz entsteht also dann, wenn eine Technologie als sinnvoll, verlässlich und bereichernd für das eigene Leben erlebt wird, nicht allein durch ihre technische Innovation.
Folgen für zwischenmenschliche Beziehungen
Wenn KI zunehmend für psychologische Gespräche herangezogen wird, verändert das auch, wie wir generell miteinander kommunizieren und welche Erwartungen wir an zwischenmenschliche Beziehungen haben?
Weiss: Ja, ich gehe davon aus, dass der zunehmende Einsatz von KI in psychologischen Gesprächen unser Kommunikationsverhalten und unsere Erwartungen an zwischenmenschliche Beziehungen zumindest teilweise verändern wird. Studien zeigen, dass KI-Systeme mit menschlich wirkenden Stimmen oder Persönlichkeitsmerkmalen eingesetzt werden, soziale Reaktionen wie Vertrauen oder Empathie hervorrufen. Dadurch könnten sich langfristig unsere Vorstellungen davon verschieben, was ein „gutes“ oder „aufmerksames“ Gespräch ausmacht.
Auf einen Blick
Astrid Weiss ist seit Mai 2025 Associate Professorin für Human Interaction with Embodied Artificial Intelligence am Institut für Visual Computing and Human-Centered Technology (E193) der Fakultät für Informatik der TU Wien. Die Soziologin und Expertin für Human-Robot Interaction forscht an der Schnittstelle von Mensch, Maschine und Gesellschaft – mit Schwerpunkt auf Vertrauen, Authentizität und Akzeptanz intelligenter Systeme. Seit 2018 ist sie zudem Mitglied der Jungen Akademie der ÖAW.
