Ob das englische Wort »Juice« (Saft) für Juden oder die Rede von der »Ostküsten-Lobby«: Solche Wortspiele und mehrdeutige Begriffe gehören nach Expertensicht zu einem wachsenden antisemitischen Code in sozialen Medien und Online-Kommentaren auf den Seiten von Nachrichtenplattformen. Da wird von »Rothschild« und »Soros« als Stellvertreter für eine angebliche globale Finanzmacht gesprochen, von »Wall Street« oder »der Presse«.
Mit Hilfe von Künstlicher Intelligenz (KI) wollen jetzt Wissenschaftler gegen die Ausbreitung solcher antisemitisch gemeinter Diffamierungen vorgehen und damit helfen, deren Verbreitung im Netz zu bekämpfen.
»Es zeigt sich, dass Online-Hetze und Hassverbrechen in der analogen Welt meist miteinander in Verbindung stehen«, sagt der Experte.
TU BERLIN »Decoding Antisemitism« - so nennt sich das Projekt, das vom Linguisten Matthias J. Becker von der Technischen Universität (TU) Berlin geleitet wird. Beteiligt sind unter anderem auch das Zentrum für Antisemitismusforschung der TU und das Londoner King’s College.
»Es zeigt sich, dass Online-Hetze und Hassverbrechen in der analogen Welt meist miteinander in Verbindung stehen«, erklärte Becker nach einer Mitteilung der Alfred Landecker Stiftung vom Montag. Die Stiftung fördert das Projekt mit drei Millionen Euro.
Damit nicht immer mehr Nutzer radikalisiert würden, sei es wichtig, das Ausmaß von antisemitischem Hass genau zu bestimmen - auch bei zunächst oberflächlich unverdächtigen Begriffen.
LINGUISTIK Zu dem Forscherteam gehören Experten für Diskursanalyse, Computerlinguistik und Historiker. Bisher habe sich noch keine Untersuchung darauf konzentriert, versteckten und codierten Hass gegen Juden zu identifizieren. Dabei gehe aus Studien hervor, dass antisemitische Diffamierungen mehrheitlich nicht direkt ausgedrückt würden. Auch die Andeutung von Verschwörungsmythen oder die Wiederholung von Stereotypen in Bildern, Karikaturen oder Memes gehörten dazu.
Ziel des Projekts sei unter anderem eine Open-Source-Anwendung, um etwa Debatten auf Webseiten zu moderieren.
Mit Hilfe von Computern und KI wollen die Forscher große Mengen an Daten- und Bildmaterial sichten, die menschliche Analysten nicht verarbeiten könnten. Ziel des Projekts sei unter anderem eine Open-Source-Anwendung, um etwa Debatten auf Webseiten zu moderieren.
Es gehe dabei ausdrücklich nicht darum, einen Zensuralgorithmus zu erschaffen, teilte die Landecker-Stiftung weiter mit.