12.02.2024 | Betrug

Der Künstliche Enkel: Betrugsmaschen im Zeitalter von KI

Betrugsmaschen gibt es nicht erst seit dem Aufstieg von Künstlicher Intelligenz, haben durch die rasante Entwicklung von KI allerdings neue Dimensionen erreicht. Die Stimmen geliebter Menschen können via Anruf oder Sprachnachricht imitiert und so hohe Geldsummen erpresst werden. Experte Stefan Strauß spricht im Interview über die neuen Formen von Betrug in Zeiten Künstlicher Intelligenz und wie man sich davor schützen kann.

Um Betrug rechtzeitig zu erkennen, sollte man laut Stefan Strauß besonders bei unbekannten Nummern skeptisch sein. © Adobe Stock

Eine bekannte Stimme am anderen Ende der Leitung, ein Hilferuf, eine Forderung nach Geld: So schnell kann es gehen und schon ist man sein gesamtes Erspartes los. Betrugsmaschen, die sich künstlich imitierter Stimmen unserer Liebsten bedienen, können uns kalt erwischen. Wie Betrüger mit Künstlicher Intelligenz arbeiten und wie man einen echten Anruf von einem gefälschten unterscheidet, erklärt Stefan Strauß vom Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ÖAW) im Interview.

Der "Enkeltrick" im Zeitalter Künstlicher Intelligenz - wie kann man sich das vorstellen? 

Stefan Strauß: Die Betrugsmasche ist an sich simpel und nichts Neues: Jemand gibt sich als Angehöriger aus oder behauptet, ein Angehöriger wäre in Not. Damit ist dann meist eine Geldforderung verbunden. Mit Machine Learning und KI-Tools gibt es jetzt neue technische Möglichkeiten. Man spricht hier auch von „Voice Cloning“, also dem Klonen bzw. Generieren eines Imitats einer echten menschlichen Stimme. Es wir dann einfach mit der geklonten Stimme angerufen, um eine Person zu täuschen. Klassischerweise wird es eher bei älteren Menschen versucht, aber es kann im Grunde jede:r betroffen sein. Nur weil es geht, heißt das aber noch nicht, dass die Betrugsform tatsächlich häufiger vorkommt als bisher.

Geklonte Stimmen

Wie funktioniert das sogenannte "Voice Cloning"?

Strauß: Da gibt es verschiedene Möglichkeiten. Die simpelste Variante ist es, mit verzerrter Stimme in schlechter Qualität anzurufen. Das gibt es schon länger und braucht auch keine KI. Da reicht ein herkömmliches Audiobearbeitungsprogramm, um z.B. die Stimme höher klingen zu lassen. Mit KI-Tools ist nun deutlich mehr möglich. Damit lässt sich mittels Sprachsynthese aus einem kleinen Teil eines echten Sprachmusters ein realistisch klingendes Imitat der echten Stimme erzeugen.  Mit dieser geklonten Stimmte kann dann beliebiger Text gesprochen werden. Eine andere Möglichkeit ist die sogenannte „Voice Conversion“. Auf Basis der geklonten Stimme spricht der Betrüger selbst. Die Ausgabe wird technisch unmittelbar so verändert, dass es nach der zu imitierenden Person klingt. Das ist technisch etwas aufwändiger, wenn das in Echtzeit funktionieren soll. 

Auch Sprachmuster sind an sich biometrische Daten, die sensibel und besonders schützenswert sind.

Bei jeder Variante des Voice Clonings braucht es eine Audio-Aufnahme der echten Stimme. Im Zeitalter der Sprachnachrichten, Videos und hoher Sprachqualität am Smartphone ist es jedoch nicht mehr so schwer, diese Daten zu bekommen. Die naheliegende Variante dürfte sein, dass die Person, deren Stimme geklont werden soll, einfach angerufen und heimlich aufgenommen wurde. Oder die Daten werden aus dem Internet, von Messenger-Diensten oder sozialen Medien gesammelt.

Das heißt, wir sollten auch achtsamer mit unserer Sprache im Internet umgehen?

Strauß: Auch Sprachmuster sind an sich biometrische Daten, die sensibel und besonders schützenswert sind. Daher wäre auch ratsam, diese und andere personenbezogene Daten nicht leichtfertig preiszugeben, z.B. beim Posten in sozialen Medien. Ein Beispiel ist Tiktok, das schon allein durch die junge Zielgruppe (Kinder und Jugendliche) voll ist mit diesen Daten. Die Anwendung dient ja dem Zweck, Video- und Audiocontent mit möglichst vielen anderen zu teilen. Hier braucht es insgesamt auch mehr Bewusstsein für den Schutz der eigenen Daten, sowohl bei Kindern und Jugendlichen, als auch bei Erwachsenen.

Was tun gegen Betrug?

Woher erkennt man, dass man betrogen wird?

Strauß: Wenn das Geld weg ist :-) Aber im Ernst: Erkennen lässt sich das schon früh, z.B. bei Anrufen von unbekannten Nummern. Es ist zwar nicht ausgeschlossen, aber technisch wesentlich komplizierter und sehr voraussetzungsreich, die echte Nummer eines Angehörigen zu fälschen. Wenn also jemand Unbekannter anruft, hilft schon eine gesunde Grundskepsis. Beim Gespräch ist natürlich wichtig: Wie klingt die Stimme? Gibt es ungewöhnliche Hintergrundgeräusche, Stimmveränderungen und ungewöhnliche Betonungen, die auf eine Manipulation hindeuten könnten? Wie plausibel ist der Inhalt? Klingt das wirklich nach der Person, die sie vorgibt zu sein? Wird nach sensiblen Daten gefragt, wie z.B. Bankdaten, Kreditkartennummer etc.? Diese Fragen sollte man sich naturgemäß stellen, bevor man ein paar Tausend Euro überweist oder sensible Daten am Telefon preisgibt. Das sollte man grundsätzlich nicht tun, ebenso wenig wie per E-Mail.

Beim Gespräch ist natürlich wichtig: Wie klingt die Stimme? Wie plausibel ist der Inhalt?

Wie sollte man sich am besten verhalten, wenn man einen solchen Anruf erhält? 

Strauß: Ruhe bewahren, möglichst wenig sagen, den Anruf möglichst rasch beenden und dann die Angehörigen auf anderem Wege kontaktieren, um herauszufinden, ob es sich um Betrug handelt oder nicht. Der Trick funktioniert im Grunde, egal mit welcher Technologie, durch das Erzeugen von Druck auf das Opfer. Die Betrüger wollen das Geld meist rasch. Darauf sollte man sich natürlich nicht einzulassen. Gegebenenfalls kann man Fragen stellen, die nur die echte Person beantworten kann. Die Nummer des Anrufers, wenn möglich, aufschreiben und bei Zweifel oder Verdacht auf Betrug, die Meldestelle der RTR (der Rundfunk- und Telekom Regulierungsbehörde) kontaktieren (siehe www.onlinesicherheit.gv.at).

Künstliche Intelligenz hat sehr viel Potenzial, aber es gibt eben auch ein paar Schattenseiten.

Was kann man präventiv gegen solche Arten von Betrug tun? 

Strauß: Der beste Schutz ist letztlich gesundes Misstrauen und ein verantwortungsvoller Umgang mit persönlichen Daten – also Bewusstsein für Datenschutz und den Schutz der Privatsphäre, gerade im Zeitalter von KI und Machine Learning. Das beginnt schon im Umgang mit der privaten Telefonnummer, die sollte etwa nicht leichtfertig im Netz oder auf Social Media zugänglich sein. Noch wichtiger ist, wie gesagt, der Schutz biometrischer Merkmale wie Gesichtsbilder, Video und Audioaufnahmen der eigenen Stimme. Das mag derzeit altmodisch klingen, aber hier braucht es deutlich mehr Bewusstsein dafür, dass Biometrie mit KI mittlerweile wesentlich leichter zu missbrauchen ist. Künstliche Intelligenz hat sehr viel Potenzial, aber es gibt eben auch ein paar Schattenseiten.

 

Auf einen Blick

Stefan Strauß ist promovierter Wirtschaftsinformatiker und forscht an der Schnittstelle zwischen Informatik und Gesellschaft, insbesondere zu Governance sozio-technischer Systeme, Privatsphäre, Sicherheit und Überwachung, digitaler Identität sowie Privacy Impact Assessment. Aktueller Fokus auf Big Data, Künstliche Intelligenz und Machine Learning. Weitere Forschungsinteressen liegen im Feld der Informations- und Computerethik.