01.12.2017

Gefangen im Eliza-Effekt

Douglas Hofstadter ist überzeugt: Künstliche Intelligenz (KI) ist gar nicht so intelligent. Warum das so ist – und warum wir trotzdem das Gegenteil glauben –, erklärte der KI-Vordenker an der ÖAW.

Als Joseph Weizenbaum Mitte der 1960er Jahre ELIZA erschuf, war der Begriff „Artificial Intelligence“ gerade einmal knappe zehn Jahre alt. Weizenbaum, damals Informatiker am renommierten Massachusetts Institute of Technology, war einer der Pioniere einer Technik, die heute in vielen Bereichen unseren Alltag prägt: Chatbots. Mitten im „Summer of Love“, in dem sich die meisten Menschen mehr für Emotionen als für Algorithmen interessierten, entwickelte Weizenbaum mit ELIZA ein Sprachprogramm, das man wohl getrost zu einem der Vorläufer der aktuellen Siris und Alexas zählen darf. Obwohl: Emotionen spielten auch bei ELIZA eine Rolle. Und zwar eine einigermaßen unerwartete.

Algorithmen mit Gefühlen?

Einen Computer so zu programmieren, dass dieser eine psychotherapeutische Sitzung simulieren konnte, das war die Idee hinter ELIZA. Der „Patient“ wurde vom Programm aufgefordert einen Input einzugeben, auf den das Programm dann wiederum reagierte (siehe das Beispiel in der Factbox). Was Weizenbaum damit zeigen wollte, war, dass ein echter Dialog zwischen Mensch und Maschine nicht möglich ist, sondern stets oberflächlich bleibt. Was Weizenbaum nicht ahnte, war, dass das Programm genau den gegenteiligen Effekt auslöste: Menschen, die es ausprobierten, begannen der Maschine Gefühle und Verständnis zuzuschreiben. Der ELIZA-Effekt war geboren. Weizenbaum schrieb dazu später: “I had not realized ... that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people.”

 


Künstliche Intelligenz ist nicht intelligent

“Heute sind wir noch immer gefangen im ELIZA-Effekt“, ist Douglas Hofstadter überzeugt. Der US-amerikanische Physiker, Informatiker und Kognitionswissenschaftler war am 17. November 2017 an der Österreichischen Akademie der Wissenschaften (ÖAW) zu Gast. Dort hielt er bei einer Gesamtsitzung den Vortrag: „The Insidious Invasion of Artificial Intelligence: A Personal Nightmare“. Künstliche Intelligenz als Alptraum? Ein überraschender Titel, wenn man bedenkt, dass Hofstadter mit seinem Bestseller „Gödel, Escher, Bach“, für den er 1980 den Pulitzer-Preis erhielt, nach Auffassung vieler die „Bibel der Künstlichen Intelligenz“ verfasst hat.

Es ist ein Märchen zu glauben, ein Roboter kann jemanden in derselben Weise zu Hause begrüßen wie ein Mensch.

Doch hier beginnt bereits das erste Missverständnis, wie Hofstadter deutlich machte. Denn: Künstliche Intelligenz habe nur wenig mit Intelligenz zu tun. Wenn einen etwa in nicht allzu ferner Zukunft Roboter mit den Worten „Willkommen zu Hause“ begrüßen, dann sei die Annahme, dass man von einer Maschine wirklich begrüßt werde „schlicht absurd“, so Hofstadter. „Es ist ein Märchen zu glauben, ein Roboter kann jemanden in derselben Weise zu Hause begrüßen wie ein Mensch.“ Natürlich, sagte Hofstadter, seien die Leistungen Künstlicher Intelligenz in den letzten Jahrzehnten beachtlich. Man denke nur an IBMs Supercomputer Deep Blue, der 1997 Garri Kasparow im Schach besiegte. Doch Deep Blue sei kein Schachspieler, sondern eine riesige Datenbank, die Millionen von möglichen Zügen in Sekundenschnelle berechnen kann. Anders als ein Schachspieler denkt Deep Blue nicht.

Google translate: „The maid entered the soup“

Was für Deep Blue in den 1990ern galt, gelte heute genauso für Apples iPhone-Assistent Siri oder Google translate. Was der Künstlichen Intelligenz fehle, sei die Fähigkeit zum gedanklichen Verstehen von Bedeutung – auch wenn Google inzwischen damit werbe, dass seine Übersetzungsprogramme auf sogenanntem „deep learning“ basieren. „Also habe ich Google translate getestet“, sagte Hofstadter. Dabei habe er festgestellt, dass das Programm immer wieder „das, worum es bei einem Satz eigentlich ging, in der Übersetzung komplett verfehlt hat.“

Es ist wohl schwer vorstellbar, dass die Magd die Suppe betreten hat.

Ein Beispiel? Hofstadter konfrontierte Googles Sprachprogramm mit einem Wiener Klassiker, Franz Grillparzers „Der arme Spielmann“. Dort gibt es im Deutschen den Satz „Da nun zu gleicher Zeit die Magd mit der Suppe eintrat…“. In Googles Übersetzung wurde das zu “…the maid entered the soup.” Hofstadter: „Es ist wohl schwer vorstellbar, dass die Magd die Suppe betreten hat.“ Denn korrekt ist natürlich “….the maid brought in the soup”.

Grundlagenforschung zum menschlichen Denken

Hofstadter ist durchaus bewusst, dass Künstliche Intelligenz aus dem Alltag nicht mehr wegzudenken ist. Längst ist sie zu einem Milliardengeschäft geworden. Nicht umsonst zählen Apple, Googles Mutterkonzern Alphabet, Microsoft und Amazon zu den wertvollsten Unternehmen der Welt. Hofstadter geht es auch nicht darum zu zeigen, wie „dumm“ Maschinen im Gegensatz zu Menschen sind. Ihm geht es um einen Perspektivenwechsel.

Künstliche Intelligenz sollte dafür genutzt werden, so der Professor an der Indiana University Bloomington, mithilfe von Maschinen besser zu verstehen, wie Menschen denken, statt mit immer mehr Daten und immer schnellerer Rechenleistung die Illusion zu erzeugen, dass Maschinen denken können. Ein Anliegen, das eigentlich auch im Interesse der großen Tech-Konzerne sein müsste. Denn was wäre besser als eine Suchmaschine, die versteht, was wir wirklich meinen, wenn wir etwas suchen. Doch wie kann man eine solche Suchmaschine konstruieren, wenn man nicht verstanden hat, was Verstehen ist?

Auf eine einfache Formel gebracht heißt das also: Mehr Grundlagenforschung in der Künstlichen Intelligenz wäre nötig. Doch stattdessen verleihe man Robotern Staatsbürgerschaften, wie kürzlich in Saudi Arabien. Hofstadter: „Ein perfektes Beispiel für den Eliza-Effekt."