11.12.2023 | AGIDE Workshop

Wertekompass für die digitale Welt

Beim Workshop „Digital Ethics in Practice“, diskutierten im Herbst 2023 an der ÖAW Expert:innen verschiedener Disziplinen die kulturellen Dimensionen unserer zunehmend digitalen Welt. Dass diese eine globale Schutzinstanz braucht, davon ist die Workshop-Teilnehmerin und digitale Anthropologin Payal Arora überzeugt, wie sie im Gespräch schildert.

Globale ethisch-moralische Standards für die digitale Welt forderten an der ÖAW versammelte Expert:innen im Herbst 2023. © AdobeStock

Können wir allgemeingültige ethische und moralische Prinzipien formulieren, die sich weltweit wie eine Messlatte an das Internet anlegen lassen? Payal Arora, Professorin für Inklusive AI Kultur an der Universität Utrecht, ist der Überzeugung: ja - wir können nicht, wir müssen sogar! Nur globale Standards, überwacht von einer weltumspannenden Institution nach dem Vorbild von UNO, UNICEF oder WHO, könnten sicherstellen, dass der digitale Raum wirklich allen Menschen zu Gute komme.

Arora ist eine der internationalen Expert:innen, die im Oktober 2023 bei dem Workshop  "Digital Ethics in Practice. Cultural Dimensions" der Österreichischen Akademie der Wissenschaften (ÖAW) in Wien zu Gast war. Organisiert von der ÖAW-Plattform Academies for Global Innovation and Digital Ethics (AGIDE), diskutierten Wissenschaftler:innen unterschiedlicher Fachrichtungen dabei Aspekte der kulturellen Dimensionen unserer digitalisierten Welt. In der Frage nach der Notwendigkeit gemeinsamer globaler Standards waren sich alle Teilnehmer:innen des Symposiums einig. Denn mit Big Data und Künstlicher Intelligenz seien die Möglichkeiten, Menschenrechte zu verletzen, zuletzt um einige Facetten bedrohlicher geworden, wie auch die digitale Anthropologin Arora im Interview schildert.

Inclusive Design

Sie machen sich in Ihrer Forschungsarbeit stark für integrative Konzepte („inclusive designs“), die dafür sorgen sollen, dass digitale Angebote möglichst niemanden ausschließen. Wer wird denn ausgeschlossen – und von wem?

Ich würde den Begriff „inclusive designs“ gerne in Anführungszeichen setzen – denn wir sollten bedenken, dass Inklusion nicht immer etwas Gutes sein muss. Ein Beispiel: Ich kann Frauen unterschiedlicher ethnischer Herkunft in einen Datensatz mit pornographischen Inhalten inkludieren. Das wäre auch „Inklusion“, würde den Betroffenen aber Schaden zufügen. Es werden viele Daten wahllos abgegriffen, um Gewinn damit zu machen. Ich habe in den vergangenen zwei Jahrzehnten viel Zeit in Ländern auf der südlichen Erdhalbkugel verbracht, und dort wieder mit marginalisierten Gruppen, und wurde Zeugin, wie die Menschen digitale Mittel nutzten, aber auch, wie dabei ihr Alltag zu Datensätzen wurde. Diese Daten gingen an Unternehmen und wurden zu einer Währung, und zwar gerade die Daten derjenigen, die sich ihre Produkte – etwa die neuesten Smartphones – gar nicht leisten konnten.

90 Prozent der Jugend weltweit lebt im globalen Süden, generiert also die meisten Daten. In diesem Zusammenhang bedeutet „Inklusion“, dass diese Gruppe online entsprechend auch auf faire, gerechte, respektvolle Weise vertreten sein sollte. Daher sollten wir das Paradigma des inklusiven Designs stets um ethische Aspekte erweitern, um sicherzustellen, dass die Inklusion zum Wohle der Gesellschaft funktioniert. Und natürlich ist "Inklusion" nur der Weg, nicht das Ziel...

Wir müssen dafür sorgen, dass persönliche Sicherheit und demokratische Freiheit, Privatsphäre und Autonomie auch im Netz gewährleistet sind.

Was wäre das Ziel?

Soziales Wohlergehen für alle auf diesem Planeten. Der digitale Raum braucht grundlegende Sicherheitsvorkehrungen. Leitplanken, sozusagen. Wir müssen dafür sorgen, dass persönliche Sicherheit und demokratische Freiheit, Privatsphäre und Autonomie auch im Netz gewährleistet sind.

Hätte man diese Werte nicht von Anfang an darin verankern müssen?

Denken Sie an verschiedene technische Neuerungen, die entwickelt wurden – meistens hatte man eine Vorstellung davon, was sie bewirken würden – doch es kam immer anders. Erst, wenn solche Erfindungen auf die Gesellschaft losgelassen werden, sieht man, wofür sie wirklich verwendet werden – und wie sie sich auswirken. Wir sollten entsprechend einen kontinuierlichen Prüfungsprozess einrichten, um sicherzustellen, dass unsere Werte eingehalten werden.

WIKIPEDIA ALS ROLE MODEL

Nehmen wir ein praktisches Beispiel aus dem Internet: Eine der meistbesuchten Seiten ist die Wikipedia. Sie wird oft als Best Practice Beispiel genannt, weil hier weltweites Wissen gesammelt und weitergegeben wird. Und dennoch sind auch hier beispielsweise Frauen – inhaltlich und bei der Einspeisung von Daten – unterrepräsentiert.

Es ist nicht möglich, ein „perfektes System“ zu schaffen. Auch innerhalb der Wikipedia stammen die meisten Beiträge von männlichen Autoren aus der Mittelklasse. Dabei reagiert die Wikipedia auf Kritik und hat in den vergangenen zehn Jahren ihr Bestes getan, ihre Quellen zu dezentralisieren und die Inhalte in möglichst vielen Sprachen anzubieten.

Wäre Wikipedia also trotzdem ein gutes Role Model für den digitalen Raum der Zukunft?

Die Wikipedia wird zurecht gefeiert. Diese Seite ist das einzige nicht-profitorientierte Projekt unter den Top-5 der meistbesuchten Seiten der Welt. Wikipedia steht für die ursprüngliche Vision, die wir hatten, als das Internet an den Start ging: dass das Wissen der Welt allen zugänglich sein würde. Und dass sich innerhalb dieses Wissens Interessensgruppen formieren und gedeihen würden. Das System Wikipedia funktioniert nur deshalb, weil sich eine riesige Gruppe von Menschen ehrenamtlich dafür engagiert. Das kann man sich heute kaum mehr vorstellen! Halten wir nicht die Menschheit inzwischen für zynisch und egozentrisch? Und hier kommt die Wikipedia und tritt den Beweis an, wozu die Menschheit fähig ist, wenn wir mit Energie und Engagement bei der Sache sind.

Warum funktioniert dieses eine digitale Ökosystem, das auf den ehrenamtlichen und uneigennützigen Einsatz von Menschen baut – und andere, ähnliche Projekte nicht?

Aus einem einfachen Grund: Weil Jimmy Wales (der Wikipedia-Gründer, Anm.) nicht verkaufen wollte. Andere, ursprünglich vielversprechende Projekte, wie eine Couchsurfing-Plattform, haben mit der Privatisierung ihr Gesicht verändert. Ich habe Jimmy Wales auf dem Copenhagen Tech-Festival getroffen und er hat mir erzählt, dass er mit Angeboten, die Wikipedia zu privatisieren, geradezu bombardiert wird. Risikokapitalgesellschaften bieten ihm unglaubliche Summen. Aber er sagt: „Stell dir vor, am Rand eines Artikels über den Israel-Palästina-Konflikt, wird Werbung für Bikinis angezeigt“, denn so könnte die Wikipedia ja Gewinn generieren – und genau diese Situation will er verhindern. Darum hat er sie als Stiftung organisiert.

Die Rolle der Privatwirtschaft

Die Interessen der Privatwirtschaft scheinen der Fairness im digitalen Raum zu widersprechen.

Ich bin nicht gegen die Privatwirtschaft! Ich berate große, private Unternehmen. Aber wir sehen immer wieder, dass private Player Entscheidungen treffen können, die die User im negativen Sinn betreffen, etwa, ihr Angebot in bestimmten Ländern vom Netz zu nehmen, wenn sie mit deren Vorschriften nicht einverstanden sind. Wir haben es ja gerade an Twitter gesehen: Was wir für eine Art öffentlichen Diskursraum hielten und uns entsprechend darin verhalten haben, hat sich durch Elon Musks Übernahme verändert – erst jetzt wird uns allen bewusst: Es gibt einen einzigen Eigentümer, der alles entscheidet.

Tech-Unternehmen müssen in die Schranken gewiesen werden. Wir brauchen dringend globale Regelungen.

Kommen hier die universellen Regeln ins Spiel, die Sie während des Symposiums gefordert haben?

Wenn Regeln für den digitalen Raum nur für ein Land gelten, geschieht das, was Meta in Australien gemacht hat. Als Reaktion darauf, dass der Staat Meta drängte, als Veröffentlichungsplattform die Verantwortung für seine Inhalte zu übernehmen, drohte Meta damit, alle Nachrichteninhalte auf Facebook Australien zu sperren. Und genau deshalb müssen wir uns auf globale Regelungen konzentrieren. Ich glaube, dass auch Länder mit sehr unterschiedlichen Standpunkten – wie die USA und China – sich in einem Punkt einig sind: Tech-Unternehmen müssen in die Schranken gewiesen werden. Indem sie grenzübergreifend operieren und im Besitz all unserer persönlichen Daten sind, können sie mächtiger werden, als die Regierungen einzelner Länder. Wir brauchen dringend globale Regelungen.

Abschlussfrage: Wie sähe der ideale digitale Raum der Zukunft in ihren Augen aus?

„Ideal“-Zustände kann man nicht erreichen. Ich mag lieber die Formulierung „ausreichend gut“ („good enough“). Bei zukünftigen Entscheidungen sollten wir standardmäßig neben den sozialen Auswirkungen auch die Auswirkungen auf die Umwelt mitbedenken müssen. Schließlich befinden wir uns mitten in einer Klimakrise. Diese beiden Gedanken sollten unser Handeln bestimmen: auch die Art, wie wir Unternehmen bewerten und besteuern – damit uns unsere Welt erhalten bleibt. Zweitens: Ich würde mir mehr echte Offenheit gegenüber den Ideen des globalen Südens wünschen.

Drittens: In den Jahren direkt nach den Weltkriegen ist uns als Menschheit etwas Bemerkenswertes gelungen. Wir haben verschiedene weltumspannende Organisationen gegründet, mit dem Ziel, allen Menschen zu nützen: Die UNO, UNICEF und die WHO. So eine Gründung hat es schon seit Jahrzehnten nicht mehr gegeben. Jetzt wäre ein guter Zeitpunkt dafür: Wir sollten uns wieder ins Globale verlieben!

 

Auf einen Blick

Payal Arora ist Professorin für Inklusive AI Kultur an der Universität Utrecht. Sie ist Mitbegründerin von FemLab, einer feministischen Initiative zur Zukunft der Arbeit. Sie ist digitale Anthropologin, TEDx-Rednerin und Autorin preisgekrönter Bücher, darunter "The Next Billion Users" bei Harvard Press. Ihre Expertise liegt in den Bereichen User Experience im globalen Süden und Inclusive Design. In Wien war sie im Oktober 2023 zu Gast beim AGIDE-Workshop der ÖAW zum Thema "Digital Ethics in Practice. Cultural Dimensions".