Studien zeigen: Systeme künstlicher Intelligenz stellen jüdische Themen verzerrt dar und spiegeln antisemitische Narrative wider.
von Deborah Engelberg
Künstliche Intelligenz (KI) ist zu einem selbstverständlichen Bestandteil unseres Denk- und Informationsraums geworden. Sprachmodelle (LLM) beantworten Fragen, strukturieren politische Debatten, erklären Geschichte und vermitteln zwischen widersprüchlichen Positionen. Sie treten sachlich und vermeintlich ausgewogen auf – gerade daraus erwächst ihre Autorität.Und genau darin liegt das Problem. Eine wachsende Zahl an Studien zeigt, dass große LLM nicht unbedingt neutral sind. Sie reproduzieren systematische Verzerrungen, besonders bei Themen rund um Jüdinnen und Juden, Israel und den Westen. Diese Verzerrungen äußern sich selten in offenem Hass, wirken aber subtiler, und zwar in der Auswahl von Begriffen, im moralischen Rahmen, in dem Informationen präsentiert werden. Gerade weil sie so unspektakulär erscheinen, entfalten sie ihre Wirkung mit bemerkenswerter Konstanz. LLM besitzen Trainingsdaten, d. h. Milliarden von Texten aus dem Internet, aus Medien, aus akademischen Publikationen und aus öffentlichen Wissensplattformen bilden die Grundlage ihres „Wissens“. Was in diesen Daten dominiert, hat eine höhere Wahrscheinlichkeit, reproduziert zu werden. Eine zentrale Rolle spielt dabei Wikipedia, eine der wichtigsten offenen Wissensquellen der letzten 25 Jahre. Gerade Artikel zu Israel, Zionismus und jüdischer Geschichte sind dort seit Jahren hochgradig umkämpft. Aktivistische Edit-Gruppen, politisierte Quellenlagen und akademische Strömungen, unlängst auch mit dem Verdacht ausländischer Einflussnahme etwa aus Katar, prägen diese Inhalte.
Neben Wikipedia fließen auch Inhalte aus großen Diskussionsplattformen in die Trainingsdaten vieler LLM ein. Eine der wichtigsten davon ist Reddit, eine Social-Media-Plattform, die aus tausenden thematischen Unterforen besteht und von Millionen Nutzern täglich bespielt wird. Reddit gilt seit Jahren als stark links geprägt. Diskussionen über Israel sind dort häufig einseitig, emotionalisiert und von antizionistischen bis offen antisemitischen Narrativen beeinflusst, denen selten widersprochen wird. Da LLM aus solchen massenhaft produzierten Texten statistische Muster ableiten, verstärken sie nicht nur Mehrheitsmeinungen, sondern auch die ideologischen Schieflagen der Plattformen, aus denen sie lernen. Das führt nicht zwingend zu sachlichen Fehlern, wohl aber zu einer beständigen moralischen Schieflage.
Diese Schieflage setzen LLM rechnerisch fort. Israel erscheint überdurchschnittlich häufig als moralischer Sonderfall, jüdische Selbstbestimmung als erklärungsbedürftig, westliche Souveränität als verdächtig. Gewalt gegen Juden wird oft kontextualisiert, Gewalt durch Juden stärker problematisiert. Antizionistische Sprache wird als legitime Kritik gerahmt, selbst dann, wenn sie die Existenz des jüdischen Heimatstaates grundsätzlich infrage stellt. Eine umfassende Untersuchung der Anti-Defamation League (ADL) aus den Jahren 2024 und 2025 bestätigte diesen Eindruck empirisch. Führende LLM wurden mit tausenden Anfragen zu jüdischen, israelischen und antisemitischen Themen konfrontiert. Das Resultat war ein konsistentes Muster aus Relativierung antisemitischer Narrative, der Reproduktion problematischer Begriffe ohne Einordnung und einer deutlich anderen Behandlung Israels im Vergleich zu Staaten in ähnlichen Konflikten.
Parallel dazu zeigen Studien aus Stanford und vom Oxford Internet Institute, dass LLM dominante Diskurse westlicher Eliteinstitutionen besonders stark reproduzieren. Diese Diskurse sind derzeit geprägt von einer aktivistischen, oft als „woke“ bezeichneten Linken, die Politik konsequent durch Konzepte von Macht und Schuld liest. In diesem Rahmen wird Israel schnell als Kolonialprojekt, Apartheidstaat oder gar als Genozidakteur markiert. LLM übernehmen diese Begriffe in sachlichem Ton. Durch Wiederholung werden politische Kampfbegriffe zu scheinbar neutralen Beschreibungen. Das eigentliche Risiko liegt jedoch weniger im Bias selbst als in seiner Unsichtbarkeit. Ein politischer Aktivist ist als solcher erkennbar. Ein akademischer Text ist verortbar. Ein LLM hingegen spricht mit der Autorität der Maschine. Wenn es Israel als Apartheidstaat bezeichnet oder jüdische Narrative relativiert, wirkt das nicht wie Parole, sondern wie nüchterne Analyse.
So verschiebt sich der Diskurs. Antizionistische Sprache verliert ihren ideologischen Charakter und erscheint als neutraler Konsens. Für jüdische Nutzerinnen und Nutzer entsteht eine neue Form der Entfremdung. Ihre Perspektive steht nicht mehr allein gegen politische Gegner, sondern gegen ein System, das als objektiv gilt. Angesichts weltweit steigender antisemitischer Vorfälle der letzten Jahre ist das keine theoretische Debatte. KI ist Teil unserer Informationsinfrastruktur geworden und beeinflusst, was als vernünftig gilt, was als extrem erscheint und was als selbstverständlich durchgeht. Eine einfache technische Lösung existiert nicht, da Trainingsdaten sich nicht vollständig säubern lassen. Entwickler müssen Verzerrungen offenlegen und aktiv gegensteuern, Plattformen müssen Transparenz schaffen, und Nutzerinnen und Nutzer müssen begreifen, dass Feedback, z. B. jede Korrektur, jede Meldung, jedes Signal der Zustimmung oder Ablehnung, in die Weiterentwicklung dieser Systeme einfließt.
Jüdische Geschichte lehrt, dass, wenn die Legitimität jüdischer Selbstbestimmung zur Debatte steht, die Gesellschaft bereits weitergegangen ist, als sie glaubt. KI erzeugt keine neuen Ideologien, aber steigert bereits bestehende. Wenn bestimmte Narrative dominieren, werden sie skaliert. Wenn bestimmte Begriffe politisch aufgeladen sind, werden sie normalisiert. Was in kulturellen Diskursen umkämpft ist, erscheint im Modell als berechnete Wahrscheinlichkeit. Doch genau darin liegt auch eine Chance. Diese Systeme sind (noch) menschengemacht. Sie reagieren auf Kritik, auf Korrekturen, auf Feedback. Die Maßstäbe, die sie reproduzieren, sind am Ende die Maßstäbe, die wir setzen.
