Digital chatbot, Text-to-speech, KI, AI, Künstliche Intelligenz, Sprache, Computer
OleCNX – stock.adobe.com
OleCNX – stock.adobe.com
Deepfakes

Betrug mit KI-generierten Stimmen nimmt zu

Betrug mittels Voice-Cloning nimmt zu, darauf hat erst kürzlich das Europäische Verbraucherzentrum hingewiesen. Dabei wird die Stimme einer Person für betrügerische Anrufe bei deren Verwandten verwendet. Dass die Stimme – wie der Fingerabdruck – ein biometrisches Merkmal ist, werde zu wenig beachtet, mahnt ein Forscher.

Das Telefon läutet, es meldet sich der vermeintliche Enkel. Er befinde sich in einer Notlage und brauche dringend Geld. Mit diesem „Enkeltrick“ werden vor allem ältere Menschen betrogen. Der Trick ist alt, neu ist allerdings, dass für den Anruf immer häufiger die Originalstimme verwendet wird, sagt Stefan Strauß vom Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften (ÖAW): „Voice Cloning bezeichnet den Einsatz von künstlicher Intelligenz, um aus einem Schnipsel einer echten Stimme ein täuschend echt klingendes Imitat zu erzeugen.“

Stimme identifiziert eindeutig

Mittels maschinellem Lernen lernt das Programm aus diesem Schnipsel, wie die echte Stimme klingt. „Dann kann man jeden beliebigen Text mit dieser nachgebildeten Stimme sprechen lassen,“ so der Wirtschaftsinformatiker. Dass diese Betrugsmasche häufiger wird, liegt zum einen an den Programmen, mit denen sich solche Fälschungen anfertigen lassen. Von ihnen gibt es immer mehr, und sie werden immer besser, so Strauß. Zum anderen finden sich immer mehr Audioaufnahmen online, wodurch es genügend Ausgangsmaterial für solche Betrügereien gibt.

Onlinehilfe

Im Betrugsfall findet man hier Kontakt- und Hilfsmöglichkeiten.

Beim eigenen Fingerabdruck würden die meisten Menschen zögern, ihn online preiszugeben, sagt Strauß. Bei der Stimme sei hingegen nur wenigen bewusst, dass es sich dabei um ein biometrisches Merkmal handelt. Die Stimme ist so individuell, dass sie eindeutig einer Person zuordenbar ist. „Mit künstlicher Intelligenz können sehr leicht biometrische Merkmale von Personen erfassen und zugleich auch imitiert, sprich geklont werden.“ Dafür brauche es mehr Bewusstsein, also mehr Vorsicht, wo man Aufnahmen der eigenen Stimme veröffentlicht.

Gegenfragen helfen

Bei den gefälschten Anrufen mit der Bitte um Geld rät der Forscher zu einer gesunden Grundskepsis. Eine unbekannte Nummer und die Bitte um Geld sollten vorsichtig machen. „Wie plausibel ist es, dass ein Angehöriger anruft und plötzliche Geldforderungen hat?“ Wenn man damit konfrontiert ist, sollte man am besten jemand anderen aus der Familie anrufen und nachfragen, ob auch diese Person von der Notlage gehört hat. Oder dem Anrufer Fragen stellen, die nur der vermeintliche Enkel selbst beantworten kann. Auch ein Familiencodewort kann helfen.

Wie bei jeder Technologie gibt es beim Klonen von Stimmen nicht nur missbräuchliche, sondern auch sinnvolle Anwendungen, so Strauß: Etwa wenn Menschen durch eine Krankheit nicht mehr sprechen, nur mehr schreiben können, um sich mitzuteilen. Schrift werde dann wieder zu Sprache, und das sogar mit der eigenen Stimme.