Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für . Danach können Sie gratis weiterlesen.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf
  • Jetzt für nur 0,99€ im ersten Monat testen
  • Unbegrenzter Zugang zu allen Berichten und Exklusiv-Artikeln
  • Lesen Sie nahezu werbefrei mit aktiviertem Ad-Blocker
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Analyse

„Unmöglich, sich zu schützen“: Erschreckend viele Frauen werden Opfer von Deepfake-Pornografie

KI ermöglicht das einfache Erstellen von Deepfakes. Damit wird eine gefährliche Form der Pornografie gefördert. Die Opfer sind fast immer weiblich.

Frankfurt – Wenn Sie bei Google „KI“ eingeben, erscheinen unter den ersten Suchanfragen aktuell die Vorschläge „KI Bilder erstellen“, „KI Bild Generator“ und „KI Bilder kostenlos“. Die Option, ein kreatives und auf die eigenen Wünsche angepasstes Bild mit einem Klick kostenfrei entstehen zu lassen, ist extrem verlockend. Doch birgt diese Welt voller neuer Möglichkeiten auch Schattenseiten. Denn mit neuen Möglichkeiten geht häufig auch Missbrauch einher. Das zeigt sich in dem explosionsartigen Anstieg von KI-generierter Deepfake-Pornografie.

KI heizt Erstellung von Deepfake-Pornografie an – fast immer sind die Opfer weiblich

Unter KI-generierter Deepfake-Pornografie sind mithilfe von Künstlicher Intelligenz gefälschte pornografische Fotos oder Videos zu verstehen. Wie eine Studie des Cybersicherheitsunternehmens „Home Security Heroes“ ergeben hat, lag die Gesamtanzahl von Deepfake-Videos im Jahr 2023 bei 95.820 – das entspricht einem Anstieg von 550 Prozent im Vergleich zu 2019. Ganze 98 Prozent dieser Videos sind pornografischer Natur und in 99 Prozent der Fälle waren Frauen Opfer solcher Deepfakes.

Was ist Deepfake-Pornografie?

Deepfakes sind Videos oder Fotos, die mithilfe von Künstlicher Intelligenz manipuliert und so verändert wurden, dass sie realistisch aussehen. Es handelt sich um einen Kofferbegriff, der sich aus den Worten „Deep Learning“ und „Fake“ zusammensetzt. Deepfake-Pornografie ist dabei die Abbildung von pornografischen Inhalten, die mit Künstlicher Intelligenz manipuliert wurden.

Dass diese Zahlen in den vergangenen Jahren dermaßen in die Höhe gegangen sind, ist mit Blick auf den entstandenen Hype um Künstliche Intelligenz nicht verwunderlich. KI-Tools schießen aktuell wie Pilze aus dem Boden und dabei ermöglicht jedes dritte Deepfake-Tool auch die Erstellung von Deepfake-Pornografie. Wie „Home Security Heroes“ beschreibt, dauert es inzwischen weniger als 25 Minuten und ist teils komplett kostenfrei, ein 60-sekündiges pornografisches Deepfake-Video von einer Person zu erstellen, von der man nur ein einziges klares Foto besitzt.

Deepfake-Pornografie in Deutschland: Opfer können kaum dagegen vorgehen

Das Problem ist also offensichtlich, doch was wird dagegen unternommen? In Großbritannien wurde das nicht einvernehmliche Teilen – allerdings nicht das Erstellen – von Deepfake-Pornografie bereits unter Strafe gestellt. Auch die USA sind im Zuge des Skandals um Popstar Taylor Swift, die Opfer von KI-generierter Deepfake-Pornografie auf X wurde, aufgewacht. Laut The Guardian wurde im Senat im Februar ein parteiübergreifender Gesetzentwurf eingebracht, der es Opfern erlauben würde, jene zur Rechenschaft zu ziehen, die an der Erzeugung und Verbreitung entsprechender Bilder beteiligt waren. Außerdem berichtete die Pressesprecherin des Weißen Hauses gegenüber ABC News von der ersten landesweiten 24/7-Hotline des Justizministeriums für Opfer von bildbasiertem sexuellem Missbrauch.

Eine Frau guckt entsetzt in ihren Computer – die Erstellung von Deepfake-Pornografie hat in den vergangenen Jahren extrem zugenommen.

Und Deutschland? „Für die Opfer von nicht-einvernehmlicher Deepfake-Pornografie ist es in Deutschland bisher sehr schwierig bis unmöglich, gegen Deepfake-Pornos im Netz vorzugehen“, erklärt Maria Pawelec, Wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) an der Universität Tübingen gegenüber IPPEN.MEDIA. Es gebe Regulierungslücken, u.a. da es sich nicht um echte Nacktaufnahmen der Opfer handele. Diese müssten sich oft auf Straftatbestände wie Urheberrechtsverletzungen, Verstöße gegen das allgemeine Persönlichkeitsrecht, Verleumdung oder üble Nachrede stützen, um gegen Deepfake-Pornografie vorzugehen. „Das wird ihrem Leid und dem erlittenen Schaden nicht gerecht“, so Pawelec.

Außerdem fehle es den Strafverfolgungsbehörden häufig an personellen und technischen Ressourcen und der Expertise, um Deepfake-Pornos überhaupt zu erkennen und dagegen vorzugehen.

KI-generierte Deepfake-Bilder sind sehr schwer zu erkennen – Google und Meta haben Pläne

Tatsächlich hat auch eine aktuelle Studie der Universität Waterloo ergeben, dass es den Probandinnen und Probanden schwerer gefallen ist als erwartet, reale Personen von KI-generierten Menschen zu unterscheiden. Nur etwa 60 Prozent der 260 Teilnehmenden konnten den Unterschied zwischen KI-generierten und echten Menschen erkennen – und dabei handelte es sich um vollständig KI-generierte Personen, keine „angepassten“ Bilder von realen Menschen. „Deepfakes mit dem bloßen Auge zu erkennen, wird immer schwieriger“, bestätigt Maria Pawelec. Frühere Fehler in der Bildgenerierung, wie die Anzahl der Finger oder ein fehlender zweiter Ohrring, würden durch die steigende Qualität der Technik immer seltener. „Gut gemachte Deepfakes lassen sich heutzutage daher gar nicht mehr mit dem bloßen Auge erkennen“, resümiert Pawelec.

Google und Meta haben diesbezüglich bereits Pläne angekündigt, von KI erstelltes oder verändertes Material kennzeichnen zu wollen, um die Herkunft des Inhaltes deutlicher zu machen. Auch OpenAI – Gründer des Bildergenerierungsmodells DALL-E – möchte sowohl ein visuelles Wasserzeichen als auch versteckte Metadaten in den generierten Bildern hinterlegen, um deren Verlauf offenzulegen.

Opfer von Deepfake-Pornografie „fühlen sich gedemütigt, ohnmächtig und eingeschüchtert“

Das ändert aber zunächst nichts daran, dass es nur einem einzigen klaren Bild bedarf, um das Leben dieser Person von einem auf den anderen Tag komplett auf den Kopf zu stellen. Dabei kann es jeden treffen – auch Kinder. „Es ist meines Erachtens unmöglich geworden, sich davor zu schützen, Opfer von Deepfake-Pornografie zu werden, es sei denn, man hat gar keine Online-Präsenz“, erklärt Pawelec. Denn häufig werden für die Erstellung von KI-generierter Deepfake-Pornografie Bilder von privaten Social-Media-Konten verwendet.

Wie kommt dieser Eisbär in die Wüste? Erstellung von KI-Bildern einfach erklärt

Ein Eisbär läuft durch die glühend heiße Sahara.
Eine Fotomontage ist oft dann gut, wenn man ihre Echtheit auf den ersten Blick nicht anzweifelt – egal wie absurd ist, was sie zeigt. Weil Schatten, Reflexionen, Proportionen perfekt passen. So wirkt auch dieser Eisbär für eine Sekunde unverdächtig. Dabei läuft er durch eine Wüste. Wäre das Bild eine Fotomontage, sie könnte also als gelungen gelten. Doch es ist keine. Eine Künstliche Intelligenz (KI) hat es generiert, innerhalb von Sekunden. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein majestätisches Nashorn stürmt durch einen verschneiten Kiefernwald und kontrastiert mit seiner kraftvollen Präsenz mit der ruhigen Winterlandschaft.
Natürlich hat die KI das nicht alleine gemacht. Ein Gestalter musste ihr erstmal sagen, was sie machen soll. Genau wie bei diesem Werk: ein Nashorn im Schnee. Dafür muss der Gestalter sich viel Zeit nehmen. Damit das Ergebnis so gut wird, braucht die Person, die die KI bedient, Erfahrungswerte. Doch programmieren können muss sie dafür nicht, ein Technik-Profi braucht sie auch nicht zu sein. In ganzen Sätzen hat sie der KI eine Art Arbeitsauftrag geschrieben, der genau ausführt, wie das Bild aussehen soll. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Eine majestätische Waran sitzt majestätisch auf einem verwitterten Stein inmitten einer atemberaubenden Alpenlandschaft in den leuchtenden Farben des Frühlings.
Auch Sie können das ausprobieren. Dafür müssen Sie sich bei einem KI-Bildgenerator anmelden. Dazu, welche es gibt, kommen wir gleich. Dann können Sie drauflosschreiben – und den Text so lange ausbessern, bis Ihnen die Bilder gefallen, die ausgespuckt werden. Für ein solches Bild könnten Sie etwas schreiben wie: „Ein Waran sitzt vor einer Berglandschaft auf einem Stein. Der Stil ist realistisch. Neugierig soll er nach links blicken.“ Diesen Text nennt man Prompt. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein majestätisches Pferd galoppiert in einer Unterwasserwelt aus leuchtenden Korallen und bewegt sich anmutig durch die Tiefen des Ozeans.
Sie fragen sich nun sicher: Wie funktioniert diese Technik? Zuerst einmal muss die KI lernen – anhand einer Datenmenge, die unvorstellbar groß ist und aus dem Internet stammt. Die KI erkennt Muster in ihr. Bilder erzeugen kann sie dann, indem sie diese gelernten Muster reproduziert. © Nicolas Bruckmann/Midjourney (maschinell erstellt*)
Ein majestätischer Weißer Hai ist in einem kleinen Fischglas eingesperrt, seine immense Kraft wird durch die Glaswände, die ihn umgeben, eingeschränkt.
Doch wie geht die KI vor, um Sätze, die wir ihr geben, zu Bildern zu machen? Sie nimmt einen Satz und verwandelt ihn in eine Art Code. Diesen versteht sie besser, als normale Wörter. Dann nimmt sie diesen Code und wandelt ihn in eine Reihe von Anweisungen um. Die sagen, was das Bild zeigen soll. Nun folgt die KI diesen Anweisungen und generiert ein Bild: zum Beispiel das eines Hais, der in einem Goldfischglas herumschwimmt, mitten im heimischen Wohnzimmer. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein Wildschwein liegt auf einem hohen Ast inmitten eines leuchtend grünen Baumes und demonstriert dabei seine Anpassungsfähigkeit.
Und wie funktioniert dieser letzte Schritt, das Generieren des Bildes? Dafür gibt es verschiedene Techniken. Eine besonders wichtige heißt Diffusionsmodell. So wird das trainiert: Einem Bild werden nach und nach immer mehr Farbflecken hinzugefügt, bis es kaum noch zu erkennen ist. Dabei lernt die KI. Danach beherrscht sie das umgekehrte Vorgehen: Sie nimmt ein chaotisches Farbfleck-Gewusel und entfernt diesmal nach und nach Flecken, bis ein sinnvolles Bild entsteht. © Nicolas Bruckmann/Midjourney (maschinell erstellt*)
Eine Kuh steht in türkis schimmerndem Wasser an einem paradiesischen Strand.
Nun können Menschen mithilfe der KI kreative Werke erstellen – wie diese Kuh im Wasser. Für alle Bilder in dieser Fotogalerie kam das Programm Midjourney zum Einsatz. Es kann besonders realistische Ergebnisse erstellen – aber ist auch recht kompliziert zu bedienen. Das Programm Stable Diffusion soll die größte Flexibilität bei der Gestaltung bieten. Und Dall-e 2 von OpenAI ist besonders benutzerfreundlich, auch wenn die Bilder oft eher einfach gehalten sind. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Eine Giraffe ist umgeben vom Meer und Eisbergen in der Arktis.
Aller Faszination zum Trotz: Die Programme haben auch Schattenseiten. Sie können nicht nur benutzt werden, um Kunstwerke wie diese Giraffe in der Arktis zu schaffen. Mit ihnen können auch täuschend echte Bildfälschungen generiert werden. Kritiker sorgen sich, dass so Fake News gestreut werden. Letztens spukte etwa ein Bild durchs Internet, das viele für echt hielten: Es zeigte Papst Franziskus mit einer extravaganten weißen Daunenjacke, die es gar nicht gibt. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein Oktopus klammert sich an einen verwitterten Stein in der Weite einer kargen, heißen Wüste.
Ein weiteres Problem ist, dass die KI mit Texten und Bildern übt, die aus dem Internet stammen. Und im Internet gibt es eben nicht nur richtige Informationen und besonnene Äußerungen, sondern auch unzählige problematische Inhalte. So gab es schon viele Fälle, in denen KI-Bildgeneratoren Vorurteile weitergegeben haben. KIs neigen laut zahlreicher Berichte dazu, Akademiker als weiße Menschen darzustellen, Gefängnisinsassen hingegen seltener. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein Elefant läuft selbstbewusst über den schwelenden Vulkanrand, während Lava ausbricht, aus der Vogelperspektive aus der Ferne fotografiert.
So ist es mit den Bilder-KIs, wie mit beinahe allem auf der Welt: Mit ihnen kann großer Schaden angerichtet werden. Aber sie haben auch Vorteile. Ihre Ergebnisse sind mitunter beeindruckend. So sehr, dass der deutsche Fotograf Boris Eldagsen sogar den Sony World Photography Award gewonnen hat – mit einem KI-Bild, das wie eine Fotografie aussieht. Den Preis hat er nicht angenommen. Aber wer weiß, vielleicht hat ja auch dieses Werk mit einem Elefanten auf Lavagestein Preis-Potential. © Nicolas Bruckmann/Midjourney (maschinell erstellt*)

Die Auswirkungen auf die Opfer seien dabei gravierend: „Sie fühlen sich gedemütigt, ohnmächtig und eingeschüchtert; manche sogar, als ob sie vergewaltigt worden wären. Sie leiden infolge dessen oft unter psychischen Erkrankungen wie Angstzuständen; es sind sogar Fälle von Suiziden bekannt“, so Pawelec. Das steht im harten Kontrast dazu, dass laut der Studie von den „Home Security Heroes“ etwa 50 Prozent der befragten Männer schon mindestens einmal Deepfake-Pornografie gesehen haben – und 74 Prozent der Nutzer dabei kein schlechtes Gewissen haben.

„Politisch muss definitiv mehr gegen Deepfake-Pornografie getan werden“, findet Pawelec. Doch zieht sie auch die Plattformen in die Verantwortung, die finanziell von der Verbreitung von nicht-einvernehmlicher Deepfake-Pornografie profitieren sowie Unternehmen, die es den Nutzenden ermöglichen, Deepfake-Pornos zu erstellen.

EU verständigt sich auf neue Richtlinie, die Verbreitung von Deepfake-Pornos unter Strafe stellt

Tatsächlich sorgte die Europäische Kommission im März 2022 für einen Lichtblick, als sie den Vorschlag für eine Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt einbrachte. Das Europäische Parlament und der Rat haben sich im Februar diesen Jahres auf die Richtlinie geeinigt, die auch Gewalt im Internet – einschließlich dem nicht einvernehmlichen Austausch von intimen Deepfakes – unter Strafe stellt. „Das begrüße ich sehr und hoffe, dass die Richtlinie bald auf nationaler Ebene umgesetzt wird“, so Pawelec.

Ursula von der Leyen, Präsidentin der Europäischen Kommission, äußerte sich zu der Richtlinie folgendermaßen auf X: „Es ist höchste Zeit, dass Frauen in den Genuss der grundlegendsten Rechte kommen.“ Auch Věra Jourová, Vizepräsidentin für Werte und Transparenz, betonte: „Dies ist ein wichtiger Schritt gegen viele Formen der Gewalt in der realen Welt, bringt aber vor allem tiefgreifende Änderungen für die Online-Welt mit sich.“ Es ist ein Schritt in die richtige Richtung, doch gibt es mit Blick auf das Ausmaß von KI-generierter Deepfake-Pornografie auch vonseiten der Plattformen und Unternehmen, die das Erstellen und die Verbreitung derartige Deepfakes zulassen, noch viel zu tun.

Rubriklistenbild: © Anika Zuschke/DALL-E (KI-generiert)

Kommentare