02.10.2017

Nachhilfe in Maschinen-Ethik

Intelligente Maschinen sind in zahlreichen Bereichen unseres Lebens auf dem Vormarsch. Welche Rahmenbedingungen die umfassende Automatisierung unserer Welt aber bräuchte, erklärt Autorin Ingrid Brodnig anlässlich einer Podiumsdiskussion an der ÖAW.

© 123rf.com/pixelbliss

Vom Geschehen auf internationalen Finanzmärkten über die Auswahl von Inhalten auf Web-Plattformen bis hin zu selbstfahrenden Autos – die Automatisierung des Lebens ist in vielen Bereichen der Welt des 21. Jahrhunderts auf dem Vormarsch. Eine vom Institut für vergleichende Medien- und Kommunikationsforschung (CMC) der Österreichischen Akademie der Wissenschaften (ÖAW) und der Alpen-Adria-Universität Klagenfurt organisierte Podiumsdiskussion unter dem Titel „Verantwortungsvolle Automatisierung“ stellte am 2. Oktober 2017 zur Debatte, welche Auswirkungen diese Automatisierung hat und warum Menschen diese verantwortungsvoll moderieren sollten. Diskussionsteilnehmerin und Fach-Autorin Ingrid Brodnig erklärte im Gespräch, was dabei auf dem Spiel steht.

Die Entwicklung immer intelligenterer Maschinen ist seit Jahrzehnten zu beobachten. Warum häufen sich gerade jetzt kritische Stimmen, die in diesen Entwicklungen so große Gefahren sehen?

Ingrid Brodnig: Wir sind zweifellos an einem Wendepunkt. Denn es sind Algorithmen, also kluge Software, die mittlerweile zahlreiche Entscheidungen über unser Leben treffen – oftmals ohne, dass wir davon etwas mitgekommen. So wird beispielsweise im Zuge der zunehmenden Automatisierung mittlerweile durch Software berechnet, ob Menschen kreditwürdig sind, oder welche Versicherungsprämien sie zu bezahlen haben. Gleichzeitig können Algorithmen inzwischen sehr komplexe Aufgaben übernehmen. So kommt beim selbstfahrenden Auto eine Vielzahl unterschiedlicher Algorithmen zum Einsatz, die im Zusammenspiel dafür sorgen, dass sich das Auto sicher im Verkehr bewegen kann. Dass Software inzwischen Aufgaben mit einer derartigen Komplexität beherrscht, wirft natürlich auch Fragen zur Arbeitsplatzsicherheit auf. Viele Menschen werden in den nächsten Jahrzehnten ihren Job verlieren, weil eine kluge Maschine sie ersetzt.

"Bei Facebook beispielsweise beurteilt der sogenannte News-Feed-Algorithmus, welche Inhalte wir überhaupt zu Gesicht bekommen – und welche nicht. Das Problem ist: Facebook legt seine Algorithmen nicht offen."


Außerdem erkennen wir auch in der öffentlichen politischen Debatte inzwischen, dass Algorithmen für uns entscheiden. Bei Facebook beispielsweise beurteilt der sogenannte News-Feed-Algorithmus, welche Inhalte wir überhaupt zu Gesicht bekommen – und welche nicht. Das Problem ist: Facebook legt seine Algorithmen nicht offen und unabhängige wissenschaftliche Untersuchungen dieser Algorithmen werden bisher nicht erlaubt. Dabei sollten wir besser verstehen, nach welchen Kriterien die Software für uns Inhalte auswählt und mitbestimmt, was zwei Milliarden Menschen (Anzahl der Facebook-Accounts weltweit, Anm.) über die Welt wissen.

Welche Risiken birgt das konkret?

Brodnig: Manchmal kommt es durch die voranschreitende Automatisierung zu Effekten, die niemand vorgesehen hat, die aber umso kritischer sein können. Neulich wurde bekannt, dass sich Werber auf Facebook gezielt an Menschen richten können, die sich als Judenhasser bezeichnen. Diese Zielgruppe ist aber nicht etwa entstanden, weil Facebook antisemitisch wäre. Sondern weil ein Algorithmus von Facebook erkannt hat, dass es genügend Menschen gibt, die derartige Angaben in ihrem Profil gemacht hatten, woraufhin automatisiert eine entsprechende Werbekategorie erstellt wurde.

Neben diesen ungeplanten Vorfällen erscheint es aber natürlich genauso fraglich, inwieweit sich politische Akteure ganz bewusst mit Methoden der Automatisierung oder der künstlichen Intelligenz handfeste politische Vorteile zu erarbeiten erhoffen.

Social Bots, durch Software gesteuerte Accounts, stehen spätestens seit den US-Präsidentschaftswahlen im Verdacht, die öffentliche Meinung zu verzerren. Kann Software tatsächlich unsere politische Willensbildung – auch außerhalb des Internets – beeinflussen?

Brodnig: Gerade in knappen Wahlen können neue Tools wie Social Bots tatsächlich einen erheblichen Einfluss haben und das Zünglein an der Waage sein. Diese Meinungsroboter sind Accounts, die auf den ersten Blick aussehen wie menschliche Akteure, aber auf sozialen Plattformen ein nichtmenschliches Verhalten an den Tag legen, beispielsweise tausende Nachrichten am Tag abzuschicken. Mit diesen Bots kann man tatsächlich Stimmung machen, etwa indem man einen Kandidaten wie Donald Trump erfolgreicher wirken lässt, oder aber indem man Gegenkandidaten attackiert und die Sichtbarkeit für Fake-News und Schmutzwäsche um ein Vielfaches erhöht. Diese Stimmung wirkt natürlich auch außerhalb des Internets – zum Beispiel, wenn klassische Medien dann  berichten, wie erfolgreich ein Kandidat im Netz ist, dieser Erfolg aber künstlich durch Software inszeniert ist.

"Wir müssen uns also die Frage stellen, welche Kontrolle wir über die Automatisierung haben können und wollen."

Sind im Voranschreiten der Automatisierung, im Web etwa bei Google, Facebook & Co., also nur Risiken, aber keine Chancen zu sehen?

Brodnig: Uns muss bewusst sein: An dieser Entwicklung führt kein Weg vorbei. Ich bin überzeugt, dass Software beispielsweise viel sicherer fahren kann und automatisierte, selbstfahrende Autos langfristig zahllose Menschenleben retten werden. Oder auch, dass Algorithmen uns dabei helfen werden, Ressourcen zu sparen, um bei dem Beispiel zu bleiben, etwa in der Verkehrsplanung. Es ist also grundsätzlich ein logischer Schritt in der technischen Fortentwicklung des Menschen, dass wir Automatisierung schaffen. Wir fragen ja auch nicht, ob elektrischer Strom gut oder böse ist. Weil wir wissen, dass Strom für uns unverzichtbar ist. Gleichzeitig aber ist uns bewusst, dass Strom auch töten kann. Wir müssen uns also die Frage stellen, welche Kontrolle wir über die Automatisierung haben können und wollen.

Worin besteht da unsere Aufgabe?

Brodnig: Was die Technik wohl nie können wird, ist: Ethik. Und da wir keineswegs davon ausgehen können, dass Technik automatisch nur gute Verwendungszwecke ermöglicht, müssen wir Menschen für die Schaffung und Einhaltung ethischer Richtlinien sorgen. Einem Algorithmus ist egal, ob er Judenhasser oder Fußballfans als eine Zielgruppe errechnet, die man umwerben kann. Uns Menschen sollte das allerdings nicht egal sein. Denn es gibt in unserer Welt viele Bereiche, die nicht von automatisierten Kriterien oder reinen Kosten-Nutzen-Rechnungen gesteuert werden sollten.

 

Ingrid Brodnig ist Journalistin, Bloggerin und Autorin mit Schwerpunkt digitale Medien und Demokratie im Web. Zuletzt erschien von ihr das Buch „Lügen im Netz. Wie Fake News, Populisten und unkontrollierte Technik manipulieren“. 

Die Podiumsdiskussion „Verantwortungsvolle Automatisierung“, organisiert vom Institut für vergleichende Medien- und Kommunikationsforschung der Österreichischen Akademie der Wissenschaften (ÖAW) und der Alpen-Adria-Universität Klagenfurt, fand am 2. Oktober 2017 im Theatersaal der Österreichischen Akademie der Wissenschaften statt. 

www.brodnig.org

Podiumsdiskussion "Verantwortungsvolle Automatisierung"