Künstliche Intelligenz (KI) ist bereits fixer Bestandteil vieler Alltagsanwendungen, von der Suchmaschine bis hin zur Kreditvergabe. Wie Entscheidungen von KI getroffen werden, ist häufig unklar. Im Pressegespräch am Donnerstag präsentierte die Arbeiterkammer Wien eine Studie des Instituts für Technikfolgen-Abschätzung (ITA) der ÖAW. Die Autor*innen fragen, wie nachvollziehbar Künstliche Intelligenz ist, und wo es noch mehr Transparenz braucht, um negative Auswirkungen rechtzeitig zu diskutieren bzw. entstandene Schäden oder Benachteiligungen aufklären zu können.
EU-Bemühungen greifen zu kurz
„Die EU regelt gerade den Rechtsrahmen für ein KI-Gesetz, vergisst aber dabei auf die Konsument*innen“, kritisiert AK Konsument*innenschützerin Daniela Zimmer. „KI kann nützlich, aber auch sozialer Sprengstoff sein, wenn etwa ein von KI errechneter Zahlenwert Lebenschancen verringert. Daher brauchen Konsument*innen Schutz vor einer Aushöhlung ihrer Grund- und Freiheitsrechte, vor Intransparenz, Diskriminierung und sonstigen Schadensrisiken, die von Analysesoftware ausgeht“, sagt Zimmer, und fordert eine Nachbesserung des EU-Entwurfs für ein neues KI-Gesetz.
Projektleiter Walter Peissl, der die Studie mit den ITA-Forscher*innen Daniela Fuchs und Titus Udrea verfasst hat, bereitet u.a. die Unsicherheit über die Verbreitung von KI-Systemen sorgen: „Es ist nicht eindeutig definiert, was KI alles miteinschließt. Es geht dabei nicht nur um die eine zu enge – rein technische – Definition, denn das würde viele Anwendungen unreguliert lassen. Die Interessen von Konsument*innen kommen sowohl in der Entwicklung als auch bei der Regulierung von KI zu kurz. Transparenz über die verwendeten Algorithmen ist aber notwendig und auch möglich. Wo dies noch nicht möglich ist, sollte auf einen Einsatz von KI verzichtet werden, denn die Verantwortung muss beim Menschen bleiben“, so Peissl.
Soziale Auswirkungen von KI ebenso wichtig wie wirtschaftlicher Erfolg
Wichtig sei vor allem zu verstehen, dass jede Technik auch Spuren in der Gesellschaft hinterlässt: „Intransparente oder als unfair empfundene KI-Entscheidungen können die Gesellschaft spalten und die Demokratie gefährden.“ warnt auch Daniela Zimmer. Peissl empfiehlt als Gegenmaßnahme u.a. KI-Systeme, deren Entscheidungen Menschen betreffen, generell zu registrieren und nach erwartetem Risiko zu zertifizieren. Dadurch könnten die Interessen von Konsument*innen besser berücksichtigt werden.
„Wir müssen uns fragen, wie und mit welchen Folgen KI im Alltag eingesetzt wird, denn unser sozialer Umgang miteinander wird durch KI massiv umgestaltet“, betont Peissl. Als Beispiele nennt er Bonitätscores bei der Kreditvergabe oder automatisierte Bewerbungsverfahren sowie Microtargeting Aktivitäten in sozialen Netzwerken. „Wir müssen KI daher immer auch im sozialen Kontext betrachten, und dies muss auch gesetzlich festgehalten werden“, betont Peissl.