Zurück
Künstliche IntelligenzTechnikfolgen

KI-Content: Ein Fluch im Netz?

Inhalte, die von Künstlicher Intelligenz (KI) erstellt worden sind, überschwemmen soziale Medien und Online-Plattformen. Die KI-generierten Texte, Bilder und Videos werden stetig besser und damit immer schwerer von menschlichen Erzeugnissen zu unterscheiden. Der ÖAW-Technologieforscher Jaro Krieger-Lamina erklärt im Interview, warum diese Entwicklung Netz und Demokratie in Gefahr bringt und welche Maßnahmen dabei helfen könnten, das Problem zu lösen.

14.02.2025
Die grafische Illustration zeigt einen Mann, der ein Tablet in der Hand hält. Oberhalb des Tablets ist ein symbolhafte Roboter zu sehen, der Sprechblasen von sich gibt.
KI kann viel, unter anderem Bilder wie dieses generieren - aber auch Dinge erfinden.
© AdobeStock

Der Boom der Künstlichen Intelligenz (KI) hinterlässt seit der Veröffentlichung von ChatGPT im Jahr 2022 tiefe Spuren im Netz. Von KI erzeugte Texte, Bilder und Videos sind nicht nur in der Herstellung viel schneller und günstiger, sie werden auch qualitativ immer besser. Das stellt inzwischen eine große Herausforderung sowohl für das Internet als auch für unsere Demokratie dar. Denn: Sehr häufig nehmen es KIs beim Erstellen von Inhalten mit der Wahrheit nicht besonders genau. 

Jaro Krieger-Lamina hält diese Entwicklung für höchst bedenklich. Er forscht am Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ÖAW) unter anderem zu den Einflüssen von Generativer KI auf die Demokratie. Im Interview erklärt er, worin genau die Problematik besteht - und welche Gegenmaßnahmen die Gesellschaft ergreifen sollte. 

Starker Anstieg von KI-Content auf Online-Plattformen

Die Zahl der KI-generierten Inhalte im Netz ist in den vergangenen zwei Jahren gefühlt explodiert. Lässt sich das quantitativ belegen?

Jaro Krieger-Lamina: Konkrete Zahlen gibt es nicht, aber wir sehen selbst auf Plattformen, wo man das vielleicht nicht vermuten würde, einen starken Anstieg. Wenn man mit Google Scholar nach wissenschaftlichen Publikationen sucht, sind unter den Ergebnissen mittlerweile erstaunlich oft KI-generierte Inhalte zu finden. In hochwertigen Fachjournalen ist das noch nicht der Fall, weil der Peer-Review-Prozess diesbezüglich zu funktionieren scheint. Aber auch das kann sich ändern, wenn die Textgeneratoren besser werden.

Lässt sich KI-Content heute noch von menschengemachten Inhalten unterscheiden?
Krieger-Lamina: Die KIs sind so gut geworden, dass eine verlässliche Unterscheidung meistens nicht mehr möglich ist. Die Qualität reicht aus, um Nicht-Expert:innen zu täuschen. Aber Fachleute sind noch in der Lage, die praktisch immer vorhandenen Fehler zu erkennen.

Die Frage ist, was mit dem gesammelten Wissen der Menschheit im Netz passiert. 

Warum sind KI-genereierte Inhalte problematisch?
Krieger-Lamina: Das große Problem ist die Tendenz der KIs, zu „halluzinieren“ und “Fakten” zu erfinden. KI-Systeme können Text generieren, der plausibel klingt, aber falsche Information vermittelt. Deshalb ist das Einsatzgebiet heute auch noch beschränkt. Die Frage ist, was mit dem gesammelten Wissen der Menschheit im Netz passiert, wenn mehr und mehr Inhalte von Maschinen generiert werden und ein nicht unerheblicher Teil der Information falsch ist. Wenn kommende Generationen von KI-Systemen dann mit diesen verfälschten Informationen trainiert werden, führt das langfristig zu absurden Ergebnissen, weil sich die Falschinformation mit jeder Generation vervielfacht. Sprachmodelle können nur funktionieren, wenn sie auf Basis von menschlichen Inhalten trainiert werden. 

KI-Content: günstig in der Produktion

Wie lange haben wir Zeit, bevor das Internet als Informationsquelle wertlos wird?
Krieger-Lamina: Das hängt vom spezifischen Teilereich ab. Auf vielen Nachrichtenportalen gibt es bereits sehr viele KI-generierte Inhalte, weil sie praktisch nichts kosten. Eine journalistische Prüfung der Information findet dann nicht mehr statt, und das ist sicher problematisch. Insgesamt glaube ich, dass der Anteil von KI-Inhalten im Internet noch nicht sehr hoch ist. Aber der wirtschaftliche Druck ist in vielen Bereichen hoch, und wenn Unternehmen bereit sind, eine bestimmte Fehlerquote zu akzeptieren, um günstiger zu produzieren, werden sie das tun. Ich kann mir zum Beispiel vorstellen, dass Bildagenturen in den kommenden Jahren verschwinden werden, weil KI-Generatoren für weniger Geld Ergebnisse produzieren, die gut genug für viele Einsatzzwecke sind. 

Auch Menschen machen Fehler und lügen. Wo ist der Unterschied?
Krieger-Lamina: In der Motivation. Die meisten Menschen lügen nicht absichtlich, aber machen vielleicht Fehler und begehen Ungenauigkeiten. Wir produzieren auch Inhalte, um bewusst wirtschaftlichen oder politischen Einfluss zu gewinnen. Aber KI hat keine Motivation, sie denkt nicht. Die Fehlerquoten sind zudem auffallend hoch. Ein Kollege hat kürzlich mit ChatGPT gespielt und eine Biografie für einen bekannten Wissenschaftler erstellen lassen, über den es haufenweise verlässliche öffentliche Information gibt. Die KI hat dann einfach ein Bundesverdienstkreuz erfunden, das der Kollege aber nie erhalten hat. Das würde einem Menschen nicht passieren. 

KIs erlauben es, Menschen im industriellen Maßstab zu belügen.

Wie groß ist die Gefahr, dass KI genutzt wird, um absichtlich Falschinformation zu verbreiten?
Krieger-Lamina: Diese Systeme sind hervorragend geeignet, um Menschen bewusst zu manipulieren. Für Desinformationskampagnen ist die Tendenz zu Halluzinationen kein Problem und KIs erlauben es, Menschen im industriellen Maßstab zu belügen. Im Zusammenspiel mit persönlichen Informationen über Menschen, die sich aus sozialen Medien abziehen lassen, können Kampagnen gezielt auf einzelne Nutzer abgestimmt werden. Das stellt ein Problem für die Demokratie dar, weil die öffentliche Meinungsbildung, die heute immer mehr in sozialen Medien passiert, vergiftet wird. So lassen sich sogar Wahlen beeinflussen, wie wir bereits mehrfach gesehen haben, auch in Europa. Wobei dazu nicht nur KI-generierte Desinformationskampagnen beitragen, sondern auch die Algorithmen, die kontroversielle Inhalte bevorzugen. 

Risiko der Desinformation

Wie können sich Staaten vor solchen Angriffen schützen?
Krieger-Lamina: In Österreich arbeitet zum Beispiel das Heeres-Nachrichtenamt daran, solche Manipulationskampagnen aufzudecken. Bei den letzten Wahlen wurden massive Versuche entdeckt, Desinformation zu streuen. Ganz nach dem Vorbild der USA geht es dabei meistens weniger darum, einzelne Parteien oder Politiker zu diskreditieren. Stattdessen wird versucht, ein pessimistisches Weltbild zu zeichnen, das bestimmte Gruppen vom Wählen abhalten soll. 

Was können wir als Gesellschaft tun, um den Missbrauch von KI-Systemen zu unterbinden?
Krieger-Lamina: Es gibt den Vorschlag, “gute” KIs zu entwickeln, um die Menschen zu schützen. Aber ich glaube nicht daran, dass ein solches Wettrüsten zwischen KIs sinnvoll ist. Stattdessen geht es darum zu entscheiden, wo KI überhaupt eingesetzt werden soll. Das Missbrauchspotenzial lässt sich kaum einschränken, auch Gesetze sind hier wahrscheinlich nicht ausreichend. Expert:innen schlagen deshalb vor, die Eigenverantwortung der Menschen ins Zentrum zu stellen und durch Bildung und die Schaffung von Bewusstsein für die Probleme das kritische Denken der Menschen zu verbessern. 

Qualitätsjournalismus als Teil der Lösung?

Das wurde schon beim Aufkommen der sozialen Medien als Lösung propagiert.
Krieger-Lamina: Die Herausforderungen werden durch KI noch größer. Die zwei entscheidenden Faktoren sind Medienkompetenz und Vertrauen. Ich kann nicht jede Information selber prüfen und muss am Ende die Entscheidung treffen, wem ich glauben kann. Medienkompetenz muss differenzierter vermittelt werden und mehr Bedeutung bekommen. Derzeit vertrauen die meisten Menschen den klassischen Medien noch mehr oder weniger und das ist zumindest eine Basis. Vielleicht müssen wir vertrauenswürdige Inhalte mit digitalen Wasserzeichen versehen, indem Journalist:innen ihre Inhalte digital signieren. Das erfordert allerdings hohe technische Standards und ist teuer, weil auch hier ein Wettrüsten droht. Zudem ließen sich nur einzelne Online-Quellen schützen, eine breite Einführung für das gesamte Netz ist sicher illusorisch. 

In einer Welt voller KI-generierter Falschinformationen bekommt Qualitätsjournalismus einen höheren Stellenwert.

Das klingt alles sehr deprimierend. Gibt es auch Lichtblicke?
Krieger-Lamina: Vielleicht entstehen in Zukunft neue Märkte für kuratierte, geprüfte Informationen. In einer Welt voller KI-generierter Falschinformationen bekommt Qualitätsjournalismus einen höheren Stellenwert, und vielleicht sind die Menschen dann eher bereit, auf die eine oder andere Art dafür zu bezahlen. Auch die Presseförderung ließe sich daran koppeln. Die Ausdifferenzierung des Informationsökosystems wird wahrscheinlich noch beschleunigt und Gütesiegel und verifizierte Empfehlungssysteme könnten den Nutzer:innen helfen, sich zurechtzufinden. Das Internet ist schon heute ein Informationssumpf und jetzt geht es darum, die wenigen Blüten zu schützen.

In welchen Bereichen sollte KI keinesfalls genutzt werden?
Krieger-Lamina: Ich glaube, dass Ideen wie der Einsatz in der Verwaltung für die Erstellung von Bescheiden – oder genereller für Entscheidungen, die das Leben und die Rechte der Menschen berühren – irrsinnig sind. Diese Systeme arbeiten auf Basis von Wahrscheinlichkeiten und wir können nicht gewährleisten, dass die Ergebnisse immer gleich sind. Deshalb sind Forderungen, KI für die Beurteilung von bewispielsweise Arbeitslosengeldansprüchen, Asylanträgen oder Kreditwürdigkeit gefährlich.

 

Auf einen Blick

Jaro Krieger-Lamina forscht am Institut für Technikfolgen-Abschätzung der ÖAW unter anderem zu Datenschutz, Informationssicherheit, Cyber-Security und Schutz kritischer Infrastrukturen.