Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für . Danach können Sie gratis weiterlesen.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf
  • Jetzt für nur 0,99€ im ersten Monat testen
  • Unbegrenzter Zugang zu allen Berichten und Exklusiv-Artikeln
  • Lesen Sie nahezu werbefrei mit aktiviertem Ad-Blocker
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Künstliche Intelligenz

Warum ChatGPT nach rechts abdriften könnte

Eine Zeitung wird von einem Kraftfeld geschützt, sodass kleine Spinnen-Roboter (KI-Crawler) nicht an die Zeitung herankommen.
+
Immer mehr Medien blockieren KI-Crawler – ein Mediensektor bleibt dabei jedoch außen vor.

Chatbots wie ChatGPT nutzen Medieninhalte, um Antworten zu generieren. Vor allem rechte Medien lassen das zu – mit gravierenden Folgen.

Frankfurt – Mehr als jeder zweite Deutsche nutzt Sprachassistenten, jedes sechste deutsche Unternehmen plant, KI-Anwendungen zur Textgenerierung einzusetzen, und die Hälfte der deutschen Schülerinnen und Schüler haben schon einmal ChatGPT benutzt. Das sind Zahlen aus dem Jahr 2023 – es besteht also die hohe Wahrscheinlichkeit, dass diese Anteile noch gewachsen sind.

Klar ist: Künstliche Intelligenz findet großen Anklang im täglichen Gebrauch. Doch schützen sich inzwischen zunehmend Medienunternehmen davor, als Quelle für Trainingsdaten von KI-Chatbots herzuhalten. Das gilt vor allem für liberal einzustufende Nachrichtenseiten – ihre rechtsgerichteten Pendants lassen KI-Crawler hingegen in den meisten Fällen noch zu. Was kann das für Auswirkungen auf die Ergebnisse von viel benutzten KI-Chatbots haben?

Aus Urheberrechtsgründen: Medienhäuser verbieten KI-Crawlern das Trainieren mit ihren Daten

Große Sprachmodelle wie OpenAIs ChatGPT oder Googles Gemini werden anhand von einer schier unermesslichen Anzahl von Daten trainiert, die sogenannte Crawler von Internetseiten extrahieren. Die Websites können sich allerdings dazu entscheiden, die Crawler zu blockieren, sodass diese keinen Zugang mehr zu ihren Daten haben. Diesen Schritt sind seit August 2023 – nachdem OpenAI und kurz darauf auch Google für ihr KI-Modell Bard (inzwischen „Gemini“) Anweisungen gaben, wie man ihre Webcrawler blockiert – sehr viele Medienunternehmen auf der ganzen Welt gegangen.

Der Grund dafür ist simpel: Nachrichtenverleger argumentieren, dass KI-Chatbots gegen das Urheberrecht verstoßen, wenn sie Artikel ohne Erlaubnis oder finanzielle Kompensation für ihr Training nutzen und diese Artikel unter Umständen in ihren Ergebnissen reproduzieren. Die amerikanische Handelsgruppe News Media Alliance, die neben der New York Times über 2200 andere Verlage vertritt, machte das Problem anhand einer Studie deutlich. Demzufolge verwenden KI-Entwickler Nachrichteninhalte überproportional im Vergleich zu generischen Online-Inhalten, um ihre Chatbots zu trainieren. Aus dem Grund hat auch die New York Times bereits eine Klage gegen OpenAI und Microsoft eingereicht.

New York Times und The Guardian blockieren KI: Wie beeinflussen die Medien KI-Chatbots?

Viele Medienunternehmen haben aus dieser Entwicklung also ihre Konsequenz gezogen: Wie eine Studie des KI-Startups „Originality AI“ Anfang dieses Jahres ergeben hat, blockieren über 88 Prozent der 44 führenden Nachrichtenseiten in den USA Webcrawler von KI-Unternehmen. Dazu gehören New York Times, Washington Post und Guardian. Ein bestimmter Sektor in der Medienwelt glänzt auf dieser Liste allerdings mit Abwesenheit: die eher rechten Medien. Keiner der neun untersuchten führenden rechten Nachrichtenseiten, zu denen in den USA Fox News, Daily Caller und Breitbart gehören, blockierte zum Zeitpunkt der Erhebung laut der Computerzeitschrift Wired KI-Webcrawler. Zufall? Oder wollen rechte Medien die KI-Chatbots bewusst mit ihren Inhalten beeinflussen?

Könnten KI-Modelle, die hauptsächlich von rechtsgerichteten Medienplattformen trainiert werden, überhaupt eine einseitige oder verzerrte Informationsquelle darstellen? „Ja“, antwortet Dr. Oliver Eberle, Wissenschaftler am Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der TU Berlin, auf Anfrage von IPPEN.MEDIA. „Was KI-Modelle lernen, hängt direkt damit zusammen, welche Daten als Trainingsmaterial zur Verfügung stehen.“

KI und Medien: Eine Frage der politischen Ausrichtung?

Es gebe ihm zufolge momentan auch keine Garantien dafür, sicherzustellen, dass KI-Werkzeuge politisch neutrale Antworten liefern. Aber: „Mittels speziellen Datensätzen kann jedoch die politische Prägung eines KI-Modells evaluiert werden. Gleichzeitig ist bekannt, dass beispielsweise die Antworten von KI-Bots durch gezieltes Anpassen der benutzten Prompts stark beeinflussbar sind“, erklärt Dr. Eberle.

Wie kommt dieser Eisbär in die Wüste? Erstellung von KI-Bildern einfach erklärt

Ein Eisbär läuft durch die glühend heiße Sahara.
Eine Fotomontage ist oft dann gut, wenn man ihre Echtheit auf den ersten Blick nicht anzweifelt – egal wie absurd ist, was sie zeigt. Weil Schatten, Reflexionen, Proportionen perfekt passen. So wirkt auch dieser Eisbär für eine Sekunde unverdächtig. Dabei läuft er durch eine Wüste. Wäre das Bild eine Fotomontage, sie könnte also als gelungen gelten. Doch es ist keine. Eine Künstliche Intelligenz (KI) hat es generiert, innerhalb von Sekunden. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein majestätisches Nashorn stürmt durch einen verschneiten Kiefernwald und kontrastiert mit seiner kraftvollen Präsenz mit der ruhigen Winterlandschaft.
Natürlich hat die KI das nicht alleine gemacht. Ein Gestalter musste ihr erstmal sagen, was sie machen soll. Genau wie bei diesem Werk: ein Nashorn im Schnee. Dafür muss der Gestalter sich viel Zeit nehmen. Damit das Ergebnis so gut wird, braucht die Person, die die KI bedient, Erfahrungswerte. Doch programmieren können muss sie dafür nicht, ein Technik-Profi braucht sie auch nicht zu sein. In ganzen Sätzen hat sie der KI eine Art Arbeitsauftrag geschrieben, der genau ausführt, wie das Bild aussehen soll. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Eine majestätische Waran sitzt majestätisch auf einem verwitterten Stein inmitten einer atemberaubenden Alpenlandschaft in den leuchtenden Farben des Frühlings.
Auch Sie können das ausprobieren. Dafür müssen Sie sich bei einem KI-Bildgenerator anmelden. Dazu, welche es gibt, kommen wir gleich. Dann können Sie drauflosschreiben – und den Text so lange ausbessern, bis Ihnen die Bilder gefallen, die ausgespuckt werden. Für ein solches Bild könnten Sie etwas schreiben wie: „Ein Waran sitzt vor einer Berglandschaft auf einem Stein. Der Stil ist realistisch. Neugierig soll er nach links blicken.“ Diesen Text nennt man Prompt. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein majestätisches Pferd galoppiert in einer Unterwasserwelt aus leuchtenden Korallen und bewegt sich anmutig durch die Tiefen des Ozeans.
Sie fragen sich nun sicher: Wie funktioniert diese Technik? Zuerst einmal muss die KI lernen – anhand einer Datenmenge, die unvorstellbar groß ist und aus dem Internet stammt. Die KI erkennt Muster in ihr. Bilder erzeugen kann sie dann, indem sie diese gelernten Muster reproduziert. © Nicolas Bruckmann/Midjourney (maschinell erstellt*)
Ein majestätischer Weißer Hai ist in einem kleinen Fischglas eingesperrt, seine immense Kraft wird durch die Glaswände, die ihn umgeben, eingeschränkt.
Doch wie geht die KI vor, um Sätze, die wir ihr geben, zu Bildern zu machen? Sie nimmt einen Satz und verwandelt ihn in eine Art Code. Diesen versteht sie besser, als normale Wörter. Dann nimmt sie diesen Code und wandelt ihn in eine Reihe von Anweisungen um. Die sagen, was das Bild zeigen soll. Nun folgt die KI diesen Anweisungen und generiert ein Bild: zum Beispiel das eines Hais, der in einem Goldfischglas herumschwimmt, mitten im heimischen Wohnzimmer. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein Wildschwein liegt auf einem hohen Ast inmitten eines leuchtend grünen Baumes und demonstriert dabei seine Anpassungsfähigkeit.
Und wie funktioniert dieser letzte Schritt, das Generieren des Bildes? Dafür gibt es verschiedene Techniken. Eine besonders wichtige heißt Diffusionsmodell. So wird das trainiert: Einem Bild werden nach und nach immer mehr Farbflecken hinzugefügt, bis es kaum noch zu erkennen ist. Dabei lernt die KI. Danach beherrscht sie das umgekehrte Vorgehen: Sie nimmt ein chaotisches Farbfleck-Gewusel und entfernt diesmal nach und nach Flecken, bis ein sinnvolles Bild entsteht. © Nicolas Bruckmann/Midjourney (maschinell erstellt*)
Eine Kuh steht in türkis schimmerndem Wasser an einem paradiesischen Strand.
Nun können Menschen mithilfe der KI kreative Werke erstellen – wie diese Kuh im Wasser. Für alle Bilder in dieser Fotogalerie kam das Programm Midjourney zum Einsatz. Es kann besonders realistische Ergebnisse erstellen – aber ist auch recht kompliziert zu bedienen. Das Programm Stable Diffusion soll die größte Flexibilität bei der Gestaltung bieten. Und Dall-e 2 von OpenAI ist besonders benutzerfreundlich, auch wenn die Bilder oft eher einfach gehalten sind. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Eine Giraffe ist umgeben vom Meer und Eisbergen in der Arktis.
Aller Faszination zum Trotz: Die Programme haben auch Schattenseiten. Sie können nicht nur benutzt werden, um Kunstwerke wie diese Giraffe in der Arktis zu schaffen. Mit ihnen können auch täuschend echte Bildfälschungen generiert werden. Kritiker sorgen sich, dass so Fake News gestreut werden. Letztens spukte etwa ein Bild durchs Internet, das viele für echt hielten: Es zeigte Papst Franziskus mit einer extravaganten weißen Daunenjacke, die es gar nicht gibt. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein Oktopus klammert sich an einen verwitterten Stein in der Weite einer kargen, heißen Wüste.
Ein weiteres Problem ist, dass die KI mit Texten und Bildern übt, die aus dem Internet stammen. Und im Internet gibt es eben nicht nur richtige Informationen und besonnene Äußerungen, sondern auch unzählige problematische Inhalte. So gab es schon viele Fälle, in denen KI-Bildgeneratoren Vorurteile weitergegeben haben. KIs neigen laut zahlreicher Berichte dazu, Akademiker als weiße Menschen darzustellen, Gefängnisinsassen hingegen seltener. © Maximilian Litzka/Midjourney (maschinell erstellt*)
Ein Elefant läuft selbstbewusst über den schwelenden Vulkanrand, während Lava ausbricht, aus der Vogelperspektive aus der Ferne fotografiert.
So ist es mit den Bilder-KIs, wie mit beinahe allem auf der Welt: Mit ihnen kann großer Schaden angerichtet werden. Aber sie haben auch Vorteile. Ihre Ergebnisse sind mitunter beeindruckend. So sehr, dass der deutsche Fotograf Boris Eldagsen sogar den Sony World Photography Award gewonnen hat – mit einem KI-Bild, das wie eine Fotografie aussieht. Den Preis hat er nicht angenommen. Aber wer weiß, vielleicht hat ja auch dieses Werk mit einem Elefanten auf Lavagestein Preis-Potential. © Nicolas Bruckmann/Midjourney (maschinell erstellt*)

Auch wenn sich die Trainingsdaten also von Userinnen und Usern nicht ändern lassen, so können Nutzende von KI-Chatbots ihre Antworten anhand der genauen Beschreibung ihrer Befehle (Prompts) an die KI selber steuern. Außerdem gibt Jeremy Baum, ein KI-Ethikforscher an der Universität UCLA, gegenüber Wired zu Bedenken, ob rechte Seiten, die KI-Crawler nicht blockieren, überhaupt einen messbaren Effekt auf die Ergebnisse fertiger KI-Systeme wie Chatbots haben würden. Dagegen spreche unter anderem die schiere Menge an älterem Material, das KI-Unternehmen bereits von Mainstream-Nachrichtenagenturen vor dem Blocken der KI-Crawler gesammelt hätten.

Welche Medien blockieren KI-Crawler in Deutschland?

In Deutschland blockierten laut einer Studie vom Reuters Institute bis Ende 2023 etwa 60 Prozent der 15 meistgenutzten Nachrichtenseiten die KI-Crawler von OpenAI und Google. Der Datenjournalist Ben Welsh führt darüber hinaus eine ständig aktualisierte Liste mit Nachrichten-Websites, die KI-Crawler von OpenAI, Google und den sogenannten Common Crawl blockieren. Von den deutschen Nachrichtenseiten unterbinden demnach aktuell Bild, Spiegel, Stern sowie Die Zeit alle drei KI-Crawler, die Süddeutsche Zeitung blockiert OpenAI und Google AI, während die Deutsche Welle sowie der MDR Sachsen-Anhalt alle drei Crawler auf ihren Seiten zulassen.

In Deutschland scheint es statt einem politischen Zusammenhang also eher eine Korrelation zwischen dem Blockieren von KI-Crawlern und der Finanzierung der Medienhäuser zu geben, da die untersuchten öffentlich-rechtlichen Medien die Crawler alle nicht aufhalten – privat finanzierte Zeitungen und Zeitschriften allerdings schon.

Kommentare