Künstliche Intelligenz – Maschinen mit Entscheidungsgewalt?

Künstliche Intelligenz erlebt gerade eine Blütezeit: Durch Big-Data-Anwendungen und die Digitalisierung unseres Alltags eröffnen sich neue Möglichkeiten, Maschinen lernfähig zu machen. Werden uns die Maschinen mit ihren Fähigkeiten schon bald übertrumpfen?

Die Forschung zur so genannten Künstlichen Intelligenz (KI) macht erstaunliche Fortschritte. KI ist eine Teildisziplin der Informatik, die sich damit befasst, Maschinen lernfähig zu machen, sodass sie Aufgaben zum Teil oder ganz autonom erledigen können. Möglich wird das aus mehreren Gründen: Die Rechenleistung hat ungeahnte Ausmaße erreicht und die Digitalisierung der Gesellschaft ermöglicht auch mehr Automatisierung. Durch neue Entwicklungen rund um Big Data und den Einsatz von Algorithmen, die enorme Datenmengen aus allen möglichen Bereichen verarbeiten, werden immer mehr Daten von Maschinen interpretiert.

Ein zentrales Feld der KI ist maschinelles Lernen, das schon heute viele Anwendungen durchdringt: von Robotik, Such-Algorithmen, Text-, Bild-, Sprach- und sogar Gesichtserkennung, (z.B. in sozialen Medien), bis hin zu digitalen Assistenzsystemen oder selbstfahrenden Autos. Neuere Verfahren wie etwa „Deep Learning“ sollen sogar selbstlernende, sich laufend selbst weiter entwickelnde Maschinen ermöglichen.

Künstliche Intelligenz ist kein Garant für Erfolg


KI ist in einigen Bereichen bereits weit fortgeschritten, in vielen anderen erst in den Anfängen. Dass diese Entwicklung unsere Welt verändern wird, scheint gewiss, doch in welche Richtung, das ist noch weitgehend offen. So bergen diese Entwicklungen enormes Potenzial, etwa um Prozesse zu automatisieren und zu optimieren. KI-basierte Systeme können bereits heute als Entscheidungshilfe bei komplexen Problemstellungen dienen, z.B. in der Medizin und im Energiebereich bis hin zu den Geowissenschaften, um Wetterphänomene oder Erdbeben zu prognostizieren.

Dem Potenzial stehen aber auch zahlreiche Problemfelder und wichtige ethische Fragen gegenüber, darunter steigende technologische Abhängigkeiten, mangelnde Transparenz und Überprüfbarkeit der Technologie sowie zahlreiche Risiken für Sicherheit, Privatsphäre und die menschliche Autonomie. Denn nicht überall, wo KI drin steckt, sind Prozesse deswegen automatisch effizienter oder besser. Im Gegenteil kann es je nach Anwendungsbereich sogar zu erhöhter Fehleranfälligkeit, ineffizienten Abläufen und damit verbundenen Problemen kommen. Maschinen besitzen keine Intuition, sie arbeiten mit Wahrscheinlichkeiten − das kann zu Spannungen bei der Interaktion zwischen Mensch und Maschine führen.

Auch scheinbar effiziente KI birgt enorme Risiken: Insbesondere das Verschärfen sozialer Ungleichheit durch diskriminierende Algorithmen oder Gefahren durch den Missbrauch von KI-Systemen wie etwa Bots zur Manipulation sind dabei ernst zu nehmende Problemfelder. Hinzu kommt, dass diese Systeme meist „Black Box“-Charakter haben, also sehr undurchsichtig in ihrem Aufbau und ihrer Funktionsweise sind. Einbettete Algorithmen mit Selbstoptimierungsmöglichkeit machen sie noch schwerer überprüfbar als das bereits heute der Fall ist.

Die Verbindung zum Menschen nicht verlieren


Es braucht daher unbedingt gesellschaftliche Mechanismen, die für verantwortungsvolle Forschung, Entwicklung und Nutzung dieser Technologien zum Wohle der Gesellschaft Sorge tragen. Dazu ist fundiertes Wissen über die realen Möglichkeiten, Grenzen und Gefahren erforderlich.

Die Technikfolgenabschätzung befasst sich mit Entwicklungen der KI entlang dieser Spannungsfelder. Wichtige Fragen sind dabei unter anderem: Wo überwiegen die Vorteile, wo die Gefahren für die Gesellschaft? Was bedeuten lernende Maschinen für menschliches Lernen? Was bedeuten automatisierte Entscheidungen für Sicherheit, Privatsphäre und Autonomie? Wie können hochkomplexe, KI-basierte Systeme für den Menschen noch nachvollziehbar und überprüfbar bleiben? Was passiert bei fehlerhaftem oder gefährlichem Verhalten? Inwieweit sind ethisches Verhalten und Werte überhaupt programmierbar − oder sind Spannungen zwischen maschineller und menschlicher Autonomie letztlich „vorprogrammiert“? Eine Reihe von ITA-Projekten nimmt sich diesen Fragen an.

Ausgewählte Projekte zum Thema Künstliche Intelligenz


Aug 2019 - Mai 2020
Aug 2019 - Okt 2020
Foto: David Grandmougin, unsplash.com
Apr 2019 - Mär 2021
Aug 2018 - Jun 2019
Apr 2018 - Dez 2019
Mär 2016 - Aug 2016