Analyse
„Unmöglich, sich zu schützen“: Erschreckend viele Frauen werden Opfer von Deepfake-Pornografie
KI ermöglicht das einfache Erstellen von Deepfakes. Damit wird eine gefährliche Form der Pornografie gefördert. Die Opfer sind fast immer weiblich.
Frankfurt – Wenn Sie bei Google „KI“ eingeben, erscheinen unter den ersten Suchanfragen aktuell die Vorschläge „KI Bilder erstellen“, „KI Bild Generator“ und „KI Bilder kostenlos“. Die Option, ein kreatives und auf die eigenen Wünsche angepasstes Bild mit einem Klick kostenfrei entstehen zu lassen, ist extrem verlockend. Doch birgt diese Welt voller neuer Möglichkeiten auch Schattenseiten. Denn mit neuen Möglichkeiten geht häufig auch Missbrauch einher. Das zeigt sich in dem explosionsartigen Anstieg von KI-generierter Deepfake-Pornografie.
KI heizt Erstellung von Deepfake-Pornografie an – fast immer sind die Opfer weiblich
Unter KI-generierter Deepfake-Pornografie sind mithilfe von Künstlicher Intelligenz gefälschte pornografische Fotos oder Videos zu verstehen. Wie eine Studie des Cybersicherheitsunternehmens „Home Security Heroes“ ergeben hat, lag die Gesamtanzahl von Deepfake-Videos im Jahr 2023 bei 95.820 – das entspricht einem Anstieg von 550 Prozent im Vergleich zu 2019. Ganze 98 Prozent dieser Videos sind pornografischer Natur und in 99 Prozent der Fälle waren Frauen Opfer solcher Deepfakes.
Was ist Deepfake-Pornografie?
Deepfakes sind Videos oder Fotos, die mithilfe von Künstlicher Intelligenz manipuliert und so verändert wurden, dass sie realistisch aussehen. Es handelt sich um einen Kofferbegriff, der sich aus den Worten „Deep Learning“ und „Fake“ zusammensetzt. Deepfake-Pornografie ist dabei die Abbildung von pornografischen Inhalten, die mit Künstlicher Intelligenz manipuliert wurden.
Dass diese Zahlen in den vergangenen Jahren dermaßen in die Höhe gegangen sind, ist mit Blick auf den entstandenen Hype um Künstliche Intelligenz nicht verwunderlich. KI-Tools schießen aktuell wie Pilze aus dem Boden und dabei ermöglicht jedes dritte Deepfake-Tool auch die Erstellung von Deepfake-Pornografie. Wie „Home Security Heroes“ beschreibt, dauert es inzwischen weniger als 25 Minuten und ist teils komplett kostenfrei, ein 60-sekündiges pornografisches Deepfake-Video von einer Person zu erstellen, von der man nur ein einziges klares Foto besitzt.
Deepfake-Pornografie in Deutschland: Opfer können kaum dagegen vorgehen
Das Problem ist also offensichtlich, doch was wird dagegen unternommen? In Großbritannien wurde das nicht einvernehmliche Teilen – allerdings nicht das Erstellen – von Deepfake-Pornografie bereits unter Strafe gestellt. Auch die USA sind im Zuge des Skandals um Popstar Taylor Swift, die Opfer von KI-generierter Deepfake-Pornografie auf X wurde, aufgewacht. Laut The Guardian wurde im Senat im Februar ein parteiübergreifender Gesetzentwurf eingebracht, der es Opfern erlauben würde, jene zur Rechenschaft zu ziehen, die an der Erzeugung und Verbreitung entsprechender Bilder beteiligt waren. Außerdem berichtete die Pressesprecherin des Weißen Hauses gegenüber ABC News von der ersten landesweiten 24/7-Hotline des Justizministeriums für Opfer von bildbasiertem sexuellem Missbrauch.
Und Deutschland? „Für die Opfer von nicht-einvernehmlicher Deepfake-Pornografie ist es in Deutschland bisher sehr schwierig bis unmöglich, gegen Deepfake-Pornos im Netz vorzugehen“, erklärt Maria Pawelec, Wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) an der Universität Tübingen gegenüber IPPEN.MEDIA. Es gebe Regulierungslücken, u.a. da es sich nicht um echte Nacktaufnahmen der Opfer handele. Diese müssten sich oft auf Straftatbestände wie Urheberrechtsverletzungen, Verstöße gegen das allgemeine Persönlichkeitsrecht, Verleumdung oder üble Nachrede stützen, um gegen Deepfake-Pornografie vorzugehen. „Das wird ihrem Leid und dem erlittenen Schaden nicht gerecht“, so Pawelec.
Außerdem fehle es den Strafverfolgungsbehörden häufig an personellen und technischen Ressourcen und der Expertise, um Deepfake-Pornos überhaupt zu erkennen und dagegen vorzugehen.
KI-generierte Deepfake-Bilder sind sehr schwer zu erkennen – Google und Meta haben Pläne
Tatsächlich hat auch eine aktuelle Studie der Universität Waterloo ergeben, dass es den Probandinnen und Probanden schwerer gefallen ist als erwartet, reale Personen von KI-generierten Menschen zu unterscheiden. Nur etwa 60 Prozent der 260 Teilnehmenden konnten den Unterschied zwischen KI-generierten und echten Menschen erkennen – und dabei handelte es sich um vollständig KI-generierte Personen, keine „angepassten“ Bilder von realen Menschen. „Deepfakes mit dem bloßen Auge zu erkennen, wird immer schwieriger“, bestätigt Maria Pawelec. Frühere Fehler in der Bildgenerierung, wie die Anzahl der Finger oder ein fehlender zweiter Ohrring, würden durch die steigende Qualität der Technik immer seltener. „Gut gemachte Deepfakes lassen sich heutzutage daher gar nicht mehr mit dem bloßen Auge erkennen“, resümiert Pawelec.
Google und Meta haben diesbezüglich bereits Pläne angekündigt, von KI erstelltes oder verändertes Material kennzeichnen zu wollen, um die Herkunft des Inhaltes deutlicher zu machen. Auch OpenAI – Gründer des Bildergenerierungsmodells DALL-E – möchte sowohl ein visuelles Wasserzeichen als auch versteckte Metadaten in den generierten Bildern hinterlegen, um deren Verlauf offenzulegen.
Opfer von Deepfake-Pornografie „fühlen sich gedemütigt, ohnmächtig und eingeschüchtert“
Das ändert aber zunächst nichts daran, dass es nur einem einzigen klaren Bild bedarf, um das Leben dieser Person von einem auf den anderen Tag komplett auf den Kopf zu stellen. Dabei kann es jeden treffen – auch Kinder. „Es ist meines Erachtens unmöglich geworden, sich davor zu schützen, Opfer von Deepfake-Pornografie zu werden, es sei denn, man hat gar keine Online-Präsenz“, erklärt Pawelec. Denn häufig werden für die Erstellung von KI-generierter Deepfake-Pornografie Bilder von privaten Social-Media-Konten verwendet.
Wie kommt dieser Eisbär in die Wüste? Erstellung von KI-Bildern einfach erklärt




Die Auswirkungen auf die Opfer seien dabei gravierend: „Sie fühlen sich gedemütigt, ohnmächtig und eingeschüchtert; manche sogar, als ob sie vergewaltigt worden wären. Sie leiden infolge dessen oft unter psychischen Erkrankungen wie Angstzuständen; es sind sogar Fälle von Suiziden bekannt“, so Pawelec. Das steht im harten Kontrast dazu, dass laut der Studie von den „Home Security Heroes“ etwa 50 Prozent der befragten Männer schon mindestens einmal Deepfake-Pornografie gesehen haben – und 74 Prozent der Nutzer dabei kein schlechtes Gewissen haben.
„Politisch muss definitiv mehr gegen Deepfake-Pornografie getan werden“, findet Pawelec. Doch zieht sie auch die Plattformen in die Verantwortung, die finanziell von der Verbreitung von nicht-einvernehmlicher Deepfake-Pornografie profitieren sowie Unternehmen, die es den Nutzenden ermöglichen, Deepfake-Pornos zu erstellen.
EU verständigt sich auf neue Richtlinie, die Verbreitung von Deepfake-Pornos unter Strafe stellt
Tatsächlich sorgte die Europäische Kommission im März 2022 für einen Lichtblick, als sie den Vorschlag für eine Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt einbrachte. Das Europäische Parlament und der Rat haben sich im Februar diesen Jahres auf die Richtlinie geeinigt, die auch Gewalt im Internet – einschließlich dem nicht einvernehmlichen Austausch von intimen Deepfakes – unter Strafe stellt. „Das begrüße ich sehr und hoffe, dass die Richtlinie bald auf nationaler Ebene umgesetzt wird“, so Pawelec.
Ursula von der Leyen, Präsidentin der Europäischen Kommission, äußerte sich zu der Richtlinie folgendermaßen auf X: „Es ist höchste Zeit, dass Frauen in den Genuss der grundlegendsten Rechte kommen.“ Auch Věra Jourová, Vizepräsidentin für Werte und Transparenz, betonte: „Dies ist ein wichtiger Schritt gegen viele Formen der Gewalt in der realen Welt, bringt aber vor allem tiefgreifende Änderungen für die Online-Welt mit sich.“ Es ist ein Schritt in die richtige Richtung, doch gibt es mit Blick auf das Ausmaß von KI-generierter Deepfake-Pornografie auch vonseiten der Plattformen und Unternehmen, die das Erstellen und die Verbreitung derartige Deepfakes zulassen, noch viel zu tun.
Rubriklistenbild: © Anika Zuschke/DALL-E (KI-generiert)
