Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für . Danach können Sie gratis weiterlesen.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf
  • Jetzt für nur 0,99€ im ersten Monat testen
  • Unbegrenzter Zugang zu allen Berichten und Exklusiv-Artikeln
  • Lesen Sie nahezu werbefrei mit aktiviertem Ad-Blocker
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Betrug durch Deepfakes

Angestellter überweist Millionen an „Fake-Chefs“: So schützen Sie sich vor KI-Abzocke

Deepfakes wirken täuschend echt. Ein Angestellter in Hongkong fiel auf eine KI-Abzocke herein und überwies Millionen. Wie Sie sich vor Betrügern schützen können.

Der technologische Fortschritt durch Künstliche Intelligenz (KI) bringt viele Vorteile mit sich. Gleichzeitig kann die Technik jedoch auch missbraucht werden. Immer häufiger werden sogenannte Deepfakes für Betrugsmaschen eingesetzt. Was Ende Januar 2024 in Hongkong passierte, fällt jedoch in die Kategorie „Horror-Szenario“. Laut einem Bericht der Hong Kong Free Press (HKFP) haben Betrüger ein multinationales Unternehmen um rund 26 Millionen US-Dollar erleichtert, indem sie sich mithilfe von Deepfake-Technologie als leitende Angestellte ausgaben. Doch was war genau passiert? Und wie kann man sich vor so einer Masche überhaupt schützen?

Ein Angestellter befand sich in einer Videokonferenz. Seine Gesprächspartner waren allesamt nicht echt. (Symbolbild)

Ein Finanzangestellter in der chinesischen Finanzmetropole erhielt per E-Mail eine Einladung zu einer Videokonferenz, berichtete CNN. Der Absender sei der Finanzvorstand der multinationalen Firma aus dem Vereinigten Königreich gewesen. Dem Mitarbeiter wurde aufgetragen, mehrere Transaktionen in Millionenhöhe abzuwickeln, so CNN weiter. Der Mitarbeiter sei zunächst misstrauisch gewesen und hätte an eine Phishing-Mail gedacht. Doch als er die Videokonferenz betrat, habe er seine Kollegen an ihrem Aussehen und ihren Stimmen erkannt. Seine anfänglichen Zweifel waren verflogen. Der Mitarbeiter folgte den Anweisungen und tätigte in der Folge 15 Transaktionen über insgesamt 200 Millionen Hongkong-Dollar (umgerechnet rund 24 Millionen Euro) an verschiedene Bankkonten, so die HKFP. Wie sich später herausstellen sollte, waren die Kollegen im Videocall nicht echt. Als der Mitarbeiter bemerkte, dass er Opfer einer Betrugsmasche wurde, war es bereits zu spät. Das Geld war weg.

Nicht verpassen: Alles rund ums Thema Job & Beruf finden Sie im Karriere-Newsletter unseres Partners Merkur.de.

Künstliche Intelligenz: Betrug mit Deepfakes nimmt zu

Betrugsmaschen mit KI-generierten Stimmen und Bildern nehmen immer weiter zu, berichtete Orf.at. Ob gefakte Politikerreden oder Betrugsmaschen auf Dating-Apps – die Taktiken werden immer absurder. Auch der Betrug am Telefon mit KI-veränderter Stimme kommt immer häufiger vor. Voice Cloning nennt sich die Technik, in der mittels Schnipseln einer echten Stimme, ein täuschend echt klingendes Imitat erzeugt wird. Wird die KI mit genügend Material gefüttert, lässt sich fortan jeder beliebige Text künstlich erzeugen. Auch die Veränderung von Bild- und Videomaterial durch KI wirkt mittlerweile täuschend echt. Dabei benötigt es sehr genaues Hinsehen, um die falschen Fotos zu entlarven. Doch oft fehlt die Zeit, um sich Bilder genauer anzusehen. Wie im Fall des chinesischen Angestellten, steht man möglicherweise auch etwas unter Druck, weil man glaubt, mit einem Vorgesetzten zu sprechen. So kann es schnell passieren, dass gefaktes Material unbemerkt bleibt.

Was sind Deepfakes?

Der Begriff Deepfakes bezeichnet manipulierte Video-, Audio- oder Textinhalte, die durch Verfahren erstellt werden, die auf Künstlicher Intelligenz (KI) basieren. Aufgrund der Nutzung von tiefen neuronalen Netzen (englisch: deep neural networks), werden solche Verfahren umgangssprachlich als „Deepfakes“ bezeichnet. Durch die Fortschritte der KI-Technologie können Deepfakes mit wenig Aufwand und Expertise in einer hohen Qualität erstellt werden. Zu den gängigen Deepfake-Techniken gehört die Manipulation von Gesichtern in Fotos und Videos (Face Swapping) und die Fälschung von Stimmen (Text-to-Speech, Voice Conversion).

Quelle: Bundesamt für Sicherheit in der Informationstechnik (BSI)

KI-Abzocke: So schützen Sie sich vor Betrug durch Deepfakes

Beim Lesen einer solchen Gruselmeldung stellen sich viele Fragen: Was ist echt? Was ist fake? Darf man seinen Augen und Ohren überhaupt noch trauen? Im Zeitalter der Künstlichen Intelligenz ist wohl nichts mehr so, wie es scheint. Man muss damit rechnen, dass Anrufende fake sind, dass Bilder gestellt sind und dass sogar Videos mit KI erstellt wurden. Doch wie kann man Deepfake-Betrug erkennen? Hier einige Tipps:

  • Ruhe bewahren und Nachfragen: Ähnlich wie bei Phishing- oder Betrugsmails sollte man Forderungen nicht umgehend nachgehen, auch wenn Sie noch so echt wirken. Selbst wenn die Anweisungen direkt von Ihrem vermeintlichen Vorgesetzten kommen, empfiehlt es sich nicht sprunghaft zu handeln, sondern Ruhe zu bewahren. Am besten hält man Rücksprache mit seinen Vorgesetzten oder versucht die betreffende Person über andere Kanäle zu erreichen.
  • Genau hinsehen: Versuchen Sie, auf ungewöhnliche Details zu achten. Abgehackte Sprache oder stimmliche Unnatürlichkeit können Indizien dafür sein, dass es sich um einen Fake handelt. Auch unnatürliche Mundbewegungen beim Sprechen oder Flimmern im Bild deuten auf einen Deepfake hin.
  • Fragen stellen: Bittet Sie jemand darum, Geld zu überweisen, empfiehlt sich eine gewisse Grundskepsis. Ruft Sie ihr Chef an und bittet um eine Überweisung, sollten Sie sich zuallererst fragen, ob all das überhaupt plausibel ist. Stellen Sie der Person eventuell Fragen, die nur sie beantworten kann.

Im Fall des chinesischen Angestellten wurden die Deepfake-Videos laut Polizei wohl bereits im Voraus aufgezeichnet und enthielten keinen Dialog oder eine Interaktion mit dem Opfer. Durch Nachfragen oder Unterbrechen der sprechenden Person hätte man die Betrüger hier wohl aus dem Konzept bringen können. Eine Rückfrage an den betreffenden Vorgesetzten hätte womöglich auch geholfen. Allgemein gilt: Besser Nachfragen als später dumm dazustehen.

Trotz zahlreicher Gefahren, die KI und ihr Missbrauch mit sich bringt, sollte man sich von der Technik nicht komplett abwenden. Es gibt Möglichkeiten, Künstliche Intelligenz sinnvoll zu nutzen.

Rubriklistenbild: © Pond5 Images/IMAGO

Kommentare