Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für . Danach können Sie gratis weiterlesen.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf
  • Jetzt für nur 0,99€ im ersten Monat testen
  • Unbegrenzter Zugang zu allen Berichten und Exklusiv-Artikeln
  • Lesen Sie nahezu werbefrei mit aktiviertem Ad-Blocker
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Enkeltrick

Warnung vor Betrug am Telefon: Künstliche Intelligenz lässt Stimmen täuschend echt klingen

Der Enkeltrick dient Betrügern dazu, ältere Menschen um ihre Ersparnisse zu bringen. Die KI könnte die Gefahr für Renterinnen und Rentner noch deutlich vergrößern.

Kassel – Der Enkeltrick ist längst kein neues Phänomen mehr. Betrüger rufen ältere Menschen an, geben sich als Angehörige aus und versuchen ihre Opfer dazu zu bringen, ihnen Geld zu geben. Dazu verwenden sie häufig dramatische Geschichten weshalb alles schnell gehen muss, wie etwa offene Krankenhausrechnungen. Um nicht auf den Betrug hereinzufallen, sollten man am Telefon vorsichtig sein – besonders wenn von der anderen Seite der Leitung Geld verlangt wird. Doch was, wenn der Anrufer oder die Anruferin sich nicht nur als Angehöriger oder Angehörige ausgibt, sondern auch genauso klingt?

Wie die US-amerikanische Tageszeitung The Washington Post berichtete, wird die KI zunehmend auch für Betrügereien genutzt. In Kanada erhielt ein älteres Ehepaar demnach einen Anruf von ihrem angeblichen Enkel. Dieser erzählte, dass er im Gefängnis sei – Handy und Geldbeutel habe er nicht – doch er brauche dringend Geld, um die Kaution zu bezahlen.

Betrügerinnen und Betrüger verwenden die KI, um Stimmen von Angehörigen zu repproduzieren – das macht es schwer, Betrugsanrufe zu erkennen. (Symbolbild)

Betrügerinnen und Betrüger nutzen KI für täuschend echte Fake-Anrufe

Da sich die Stimme am Telefon genauso anhörte wie gewohnt, schöpfte das ältere Paar keinen Verdacht. Und beschloss, dem Enkel auszuhelfen. Das Paar hob Geld ab, doch es konnte nicht den vollen Betrag in einer einzelnen Bank bekommen. Deshalb gingen die Senioren in eine zweite Filiale. Dort wurde ein Mitarbeiter auf die beiden aufmerksam und warnte sie – es gab nämlich bereits einen Vorfall dieser Art in der Bank.

Die KI macht so starke Fortschritte, dass inzwischen einige Sätze reichen, um mit einfachen Tools eine Stimme zu reproduzieren, berichtete die Washington Post weiter. Mithilfe der KI können Betrügerinnen und Betrüger die nahezu jede Stimme nutzen, die sie sich aussuchen. Laut Experten seien die Behörden noch nicht in der Lage, der neuen Betrugsmasche Einhalt zu gebieten. Häufig haben die Opfer kaum Anhaltspunkte, einen Täter oder eine Täterin zu identifizieren. Das macht es für die Polizei schwer, in solchen Fällen zu ermitteln.

Betrug mit KI – Stimmen am Telefon klingen täuschend echt

Doch was kann man selbst machen, um nicht Opfer eines Betrugs mit KI zu werden? Um sich vor Betrug am Telefon zu schützen, gibt es diverse Maßnahmen. Der WDR empfiehlt, erstmal ruhig zu bleiben. Ein gewisses Misstrauen sei angebracht. Geld sollte nie an fremde Menschen weitergegeben werden. Im Fall des älteren Paares aus Kanada hätte man beispielsweise darauf bestehen können, den angeblichen Enkel zur Polizei oder zum Gefängnis zu begleiten, um die Kaution dort abzugeben.

Nicht nur die KI nutzen Betrügerinnen und Betrüger, um per übers Telefon ihre Opfer zu erreichen. Mit einer besonders perfiden Masche geben sich Kriminelle als Ermittler von Europol und Interpol aus. (kiba)

Rubriklistenbild: © K. Schmitt/Imago

Kommentare