10.02.2023 | Künstliche Intelligenz

ChatGPT: „Vor der allwissenden KI brauchen wir uns noch nicht zu fürchten“

ChatGPT ist in aller Munde und steht im Kreuzfeuer der Kritik. Alles nur ein Hype? Oder kann der Chatbot tatsächlich die Welt verändern? ÖAW-Technikfolgen-Experte Stefan Strauß ist jedenfalls überzeugt: Statt Ängsten und Verboten brauchen wir mehr Medienkompetenz im Umgang mit den neuen Technologien.

Wenn eine Maschine Gedichte schreibt: ChatGPT spuckt Texte quasi auf Knopfdruck aus. Doch problematische, rassistische und gewalttätige Inhalte müssen Billiglohnarbeiter:innen in Kenia bereinigen. © Adobe Stock

Der auf künstlicher Intelligenz (KI) basierende Textgenerator ChatGPT der US-Firma OpenAI erzeugt auf Bestellung überzeugend wirkende Erklärtexte oder Sonette mit dem gewünschten Inhalt und kann sogar maßgeschneiderten Computercode liefern. Einige Institutionen wie Verlage und Bildungseinrichtungen haben den Einsatz der Technologie deshalb gleich verboten. Doch mit Google hat bereits das nächste Unternehmen angekündigt, einen ähnlichen KI-Chatbot zu starten.

Was also kann ChatGPT? Sind solche Systeme eine Bedrohung für Arbeitsplätze oder Bildung? Und wie können Gesellschaften mit solchen technologischen Entwicklungen umgehen? Diese Fragen beantwortet Stefan Strauß vom Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ÖAW) im Interview.

Chatbots als Milliardeninvestition

ChatGPT ist in aller Munde. Warum ist das System so spannend?

Stefan Strauß: Spannend ist es, weil es dem Anschein nach qualitativ gehaltvollere Texte produzieren kann als andere Systeme davor. Die Medienaufmerksamkeit hat aber auch mit enormen Geldsummen zu tun, die im Zusammenhang mit ChatGPT genannt werden. Microsoft will Milliarden investieren und die Technologie in seine Produkte einbauen. Dem Hersteller OpenAI steht sehr viel Geld zur Verfügung, das hat sicher auch eine Rolle beim jüngsten Qualitätssprung gespielt. Das Unternehmen verfügt über die nötige Rechnerkapazität und es wurde mit großem Aufwand ein massiver Korpus an Daten zum Trainieren des Systems geschaffen. Dafür wurden auch enorme Textmengen aus dem Internet automatisiert zusammengetragen. Machine-Learning braucht in der Regel viele Daten und hier hat ChatGPT sicher einen Vorteil gegenüber anderen Systemen. Wobei viele Daten keineswegs ein Garant für gehaltvolle Inhalte sind.

Die Medienaufmerksamkeit hat auch mit enormen Geldsummen zu tun, die im Zusammenhang mit ChatGPT genannt werden.

Was unterscheidet ChatGPT von einem gewöhnlichen Chatbot?

Strauß: Chatbots gibt es schon lange und bei manchen wurde sogar behauptet, sie könnten den Turing-Test bestehen: Also einem Menschen in einem Chat erfolgreich vorzugaukeln, auch ein Mensch zu sein. Aber gewöhnliche Chatbots stoßen schnell an ihre Grenzen. Wenn solche Systeme keine Antwort auf eine Frage haben, verschleiern sie das, indem sie verwirrende Dinge sagen. Das kann schon bei der Frage nach den Hauptstädten einzelner Länder passieren. Die Performance von Chatbots war bisher also immer eher gering. ChatGPT spielt da schon in einer anderen Liga und kann auf Knopfdruck Texte liefern, die gehaltvoll wirken können. 

Könnte ChatGPT einen Turing-Test bestehen?

Strauß: Das lässt sich schwer beurteilen. Ich sehe Turing-Tests eher skeptisch. Den Turing-Test bestehen heißt letztlich ja nur, dass ein Mensch getäuscht wurde. Und Täuschung ist grundsätzlich keine gute Basis für den Einsatz solcher Technologien. ChatGPT mag durchaus einige Texte so generieren, dass sie menschenähnlich wirken. Die Frage ist aber, ob das wirklich relevant ist. Interessanter ist die Frage, wie es um die Qualität und faktische Richtigkeit der Texte steht. Das schwankt stark und ist in hohem Maß von den Daten, aber auch von Benutzereingaben und der Interpretierbarkeit und Verstehbarkeit abhängig. Die jeweilige Kombination von Schlüsselwörtern beeinflusst den Output und entscheidet, welche Informationen wie in Texten integriert werden. Ob und wie Texte auf Richtigkeit überprüfbar sind, hängt nicht zuletzt auch von der Kompetenz der Benutzer:innen ab. Besonders problematisch wird es, wenn das System so intransparent ist, dass weder das Zustandekommen noch der Wahrheitsgehalt von Ergebnissen überprüfbar sind. Es kommt etwa durchaus vor, dass rein fiktive Textbausteine enthalten sind, die zwar echt wirken, aber trotzdem falsch sind.

Medienkompetenz statt Verbote

Sind Verbote von ChatGPT an Bildungseinrichtungen übertrieben?

Strauß: Im Bildungsbereich steht sicher die Frage im Raum, wie solche Systeme in Zukunft genutzt werden. Eine Befürchtung ist, dass Schüler:innen und Student:innen Haus- oder Seminararbeiten von ChatGPT schreiben lassen, ohne eigene Denkleistung zu erbringen. Vor diesem Hintergrund sind die ChatGPT-Verbote zu beurteilen. Persönlich glaube ich, dass Verbote nicht der richtige Weg sind. Der Einsatz dieser Technologien lässt sich schwer aufhalten. Man sollte daher besser transparent damit umgehen und bewusst ausloten, was solche Systeme können und was nicht, um sie dann sinnvoll als Werkzeuge einzusetzen, auch in der Bildung.

Der Einsatz dieser Technologien lässt sich schwer aufhalten. Man sollte besser transparent damit umgehen und ausloten, was solche Systeme können und was nicht.

Wissensarbeiter wie Journalist:innen und Lehrer:innen müssen also nicht um ihre Jobs fürchten?

Strauß: Natürlich kann die Technologie erhebliche Auswirkungen auf einzelne Berufsgruppen haben und das sehen wir ja bereits. In einigen Onlinemedien werden vereinzelt schon automatisch generierte Texte verwendet. Ich glaube aber nicht, dass es sinnvoll möglich ist, computergenerierte Texte einfach ungeprüft zu verwenden. Trotz brauchbarer Ergebnisse produziert ChatGPT auch erhebliche Fehler und das Prüfen des Outputs von KI ist allgemein ein ungelöstes Problem. Zudem ist ja der Verwendungskontext immer mitentscheidend. Wir brauchen eine kritische Auseinandersetzung über die Leistungsfähigkeit von KI-Systemen und müssen lernen, ihre Möglichkeiten und Grenzen zu verstehen, auch um Fehler darin zu erkennen. Das hat viel mit dem Problem des Automation Bias zu tun. Ich forsche derzeit im von der Arbeiterkammer geförderten Projekt CAIL unter anderem zu den Auswirkungen von KI-Systemen auf die Wissensarbeit und der Rolle kritischer Technikkompetenz (critical AI Literacy). Entscheidend ist es, mehr Wissen und Grundverständnis über die Funktionsweise der Technologien zu schaffen. So lässt sich dann auch leichter echter Nutzen daraus ziehen: Als sinnvolle Ergänzung zu menschlicher Arbeit und nicht als Ersatz.

Kritische Medienkompetenz im Umgang mit KI wird in jedem Fall wichtiger werden.

Was können Systeme wie ChatGPT als Werkzeuge leisten?

Strauß: Sie können zum Beispiel Unterstützungsleistungen bei der Recherchearbeit liefern und Wissensarbeitern Routineaufgaben erleichtern. Auch in der Kunst und kreativen Jobs sind KI-Systeme als Ideengeber interessant. Ob die Qualität der Texte ausreichend ist, hängt sicher stark vom Einsatzgebiet ab. Für die Erstellung kurzer Zusammenfassungen im schulischen Bereich reicht es wahrscheinlich oftmals, für die Erstellung einer Seminararbeit oder eines Fachartikels aber sicher nicht. Zudem ist die Frage, ob diese Systeme nicht auch die Chance bieten, Bildung und Lernen neu zu denken. Lehrende könnten etwa generierte Texte explizit für kritische Textanalysen mit Schüler:innen einsetzen. So könnte auch Medienkompetenz mitvermittelt werden. Das hängt aber wiederum sehr stark von der Grundkompetenz und dem Verständnis über KI-Systeme im Bildungssystem zusammen.

BILLIGLOHNARBEITER:INNEN MÜSSEN PROBLEMINHALTE FILTERN

Wir sollen Menschen also auf einen Alltag vorbereiten, in dem sie sich kritisch mit den KI-Texten auseinandersetzen werden müssen?

Strauß: Kritische Medienkompetenz im Umgang mit KI wird in jedem Fall wichtiger werden. Es ist aber keineswegs gewiss, dass gerade Systeme wie ChatGPT den Alltag stark prägen werden, auch wenn derzeit vieles darauf hindeutet. Der Hype könnte sich im Nachhinein als übertrieben entpuppen. Eventuell bringt die Technologie nämlich gar nicht so viel Mehrwert. Microsofts Chatbot “Tay” hat vor Jahren vorgezeigt, was alles schiefgehen kann: In der freien Wildbahn hat das System schnell begonnen, rassistische Kommentare und Verschwörungsmythen zu verbreiten. Das lag daran, dass auch Social-Media-Inhalte Teil der Trainingsdatenbank waren. Auch bei ChatGPT gibt es derartige Vorfälle und ähnliche Probleme.

OpenAI behauptet, das im Griff zu haben.

Strauß: Ja, weil es die Daten von Billiglohnarbeiter:innen in Kenia bereinigen lässt, die sich stundenlang problematische, rassistische und gewalttätige Inhalte ansehen müssen, um diese quasi händisch zu entfernen. Das ist der unrühmliche Teil von KI und die Kehrseite der enormen Datenmengen, die aus dem Netz stammen. Dieser Bereinigungsvorgang ist offenkundig nicht mit KI automatisierbar. Eine nachhaltige Lösung ist das also sicher nicht.

ChatGPT hat noch erhebliche Schwächen und liefert auch falsche und problematische Ergebnisse.

Wie könnten solche Probleme, die ja in der Datenbasis liegen, behoben werden?

Strauß: Ohne Marktdruck könnte man – anstatt einfach beliebig viele ungeprüfte Daten aus dem Netz zu verwenden – nur kontextuell relevante Daten einspeisen, also die Daten schrittweise verifizieren und filtern, bevor man sie zum Training des Systems nutzt. Das hat natürlich den Nachteil, dass es ressourcenintensiv ist und wesentlich länger dauert. Zudem müssten dann auch einmal die Anwendungsbereiche und Grenzen geklärt werden. Was aber womöglich derzeit gar nicht erwünscht ist, zugunsten des Hype. Wenn KI nicht so stark getrieben wäre von kommerziellen Interessen einiger großer Technologie-Unternehmen wie derzeit, sondern öffentliche Interessen und öffentliche Institutionen stärker im Vordergrund stünden, ließen sich manche Probleme der KI-Technologie leichter lösen, vor allem im Hinblick auf sozialverträgliche Gestaltung.

Künstliche intelligenz ist keine echte intelligenz

Wo stehen KI-Systeme heute?

Strauß: Das ist sehr unterschiedlich. KI ist in vielerlei Hinsicht bereits Teil des Alltags. Sei es am Smartphone oder bei der Websuche, wir kommen ständig mit KI-Systemen in Kontakt. Es gibt heute schon viele verschiedene Machine Learning Verfahren und jedes hat Vor- und Nachteile je nach Anwendungsbereich. Hohes Potenzial gibt es sicher bei bildgebenden Verfahren in der Medizin. Textgenerierende KI-Systeme wie ChatGPT haben ganz andere Anwendungsfelder und konkret reden wir hier nicht mehr von klassischem Machine Learning mit begrenzten, relativ validen Datenbasen. Systeme wie ChatGPT werden mit riesigen Datenmengen aus dem Netz trainiert. Aus diesem Datenhaufen werden dann semiautomatisiert falsche, gewalttätige oder anderweitig unpassende Inhalte entfernt. Das erledigen wie gesagt unter anderem Billiglohnarbeiter:innen. Um aus den Daten dann Inhalte zu generieren, werden zum Beispiel Reinforcement und Deep Learning eingesetzt. Das hat Vorteile im Umgang mit großen, dynamischen Datenmengen aber das große Problem bleibt, dass es kaum möglich ist zu prüfen, ob und warum der Output Fehler enthält. Wenn es nicht möglich ist, Inhalte zu verifizieren, kann man meiner Meinung nach nicht von einem nachhaltig brauchbaren System sprechen. 

Der Fortschritt der Technologie war in den vergangenen Jahren trotzdem rasant.

Strauß: Das stimmt. Aber gerade ChatGPT hat trotzdem noch erhebliche Schwächen und liefert auch falsche und problematische Ergebnisse. Machine Learning verbessert sich ständig und es gibt viele spannende Anwendungsmöglichkeiten, aber wir dürfen nicht vergessen, dass gerade hinter vielen aktuellen Jubelmeldungen auch Unternehmen mit fleißigen PR-Abteilungen stehen, die natürlich ein Interesse daran haben, die Systeme besser aussehen zu lassen, als sie sind. In Anbetracht der Probleme stellt sich auch die Frage, zu welchem gesellschaftlichen Preis die Entwicklung stattfindet. Unschöne und psychisch belastende Aufgaben wie die angesprochene Datenbereinigung in Entwicklungsländer auszulagern, ist ethisch problematisch und zeigt zudem auch, dass die Technologie eben zum Teil gar nicht so effizient und gehaltvoll funktioniert, wie gerne von Herstellerseite behauptet.

Von der allwissenden, menschenbedrohenden KI braucht man sich noch nicht fürchten.

ChatGPT kann auch programmieren. Ist das ein Schritt in Richtung echter Intelligenz?

Strauß: Das ist die alte Frage, was Intelligenz eigentlich ist. Hier ist noch vieles ungeklärt. Die Befürchtung, Systeme würden sich irgendwann selbst weiterentwickeln steht zwar im Raum. Aber im Grunde ist noch völlig unbekannt, ob das überhaupt möglich ist und was das mit Intelligenz zu tun hat. Schon Alan Turing hat 1950 geschrieben, dass die Frage, ob Maschinen jemals wirklich denken können, also über Intelligenz verfügen, zu irrelevant sei, um sie ernsthaft zu diskutieren. Der Begriff „Künstliche Intelligenz“ selbst wurde aus diesem Grund in den letzten 70 Jahren immer wieder als irreführend kritisiert. KI ist vor allem eines: eine neuartige Form der Automatisierung. Wenn KI programmiert, bedeutet das vor allem, dass Codebausteine automatisch erzeugt werden, die dann weiterverwendet werden können. Das kann in der Softwareentwicklung durchaus nützlich sein. Eine Gefahr hier ist aber, dass so auch Malware, also Schadsoftware, rasch maßgeschneidert generierbar wird und so neue Sicherheitsprobleme entstehen. Es gibt bereits bekannte Fälle und sich mit diesem Problem zu befassen ist wichtig. Vor der allwissenden, menschenbedrohenden KI braucht man sich aber noch nicht fürchten.

 

AUF EINEN BLICK

Stefan Strauß ist Wirtschaftsinformatiker und forscht am Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ÖAW). Er studierte an der Johannes Kepler-Universität Linz und promovierte an der TU Wien. Sein aktueller Forschungsfokus liegt auf Big Data, Künstlicher Intelligenz und Machine Learning.