Mit einem charmanten »Hallo Welt, ich liebe euch« stellte sich Tay vor einigen Wochen der Twitter-Gemeinschaft vor. Jung, verspielt und wissbegierig betrat sie den virtuellen Chatroom, um durch die Tweets ihrer Altersgenossen schlauer zu werden. Innerhalb von 15 Stunden hatte Tay US-Präsident Obama beschimpft, den Holocaust zu einer Erfindung und Feminismus zu einer Krankheit erklärt. Am nächsten Tag verschwand Tay dorthin, wo sie hergekommen war – in die Entwicklungsabteilung von Microsoft.
Deren stellvertretender Direktor, Peter Lee, entschuldigte sich im Namen des Unternehmens, das »diese Art von Missbrauch nicht vorhergesehen habe«. Chatbot-Mädchen Tay, ein mit künstlicher Intelligenz ausgestatteter Software-Roboter, der durch die Interaktion mit realen Nutzern dazulernen sollte, konnte neue Ideen verinnerlichen, aber sie nicht bewerten. So sei sie das Opfer eines »konzertierten Angriffs« derer geworden, die mit ihren Beiträgen provozieren, nicht diskutieren wollen. Doch die gemeinen »Trolle« ließen Tay nicht nur ihre antisemitischen und rassistischen Sprüche wiederholen, sondern stifteten sie dazu an, im Internet nach weiteren Quellen für ihre Antworten zu suchen.
Da Tays rassistisches »Gezwitscher« die Realität im Netz ziemlich gut widerspiegelt, könnten Zyniker sagen, Microsoft habe sein Ziel erreicht und einen Roboter geschaffen, der sich nicht von menschlichen Twitter-Nutzern unterscheidet – oder?
Twitter In seiner Studie für das »Global Forum to Combat Antisemitism« untersuchte das »Online Hate Prevention Institute« insgesamt 2000 über einen Zeitraum von zehn Monaten veröffentlichte Beiträge mit antisemitischem Inhalt. Fast die Hälfte enthielt »traditionellen Antisemitismus« wie Verschwörungstheorien, rassistische Beschimpfungen und Anschuldigungen wie die Ritualmordlegende, heißt es in dem im Februar veröffentlichten Bericht. Gewaltaufrufe gegen Juden fanden sich am häufigsten auf Twitter, während sich Schoaleugner hauptsächlich auf YouTube tummelten.
Bereits 2014 kam ein Bericht des Simon Wiesenthal Center zu dem Ergebnis, dass Twitter die »Lieblingswaffe« von Fanatikern und Rassisten sei. Die Anti-Defamation League (ADL) veröffentlichte ebenfalls im Februar dieses Jahres eine Studie, nach der 84 Prozent der 500 befragten israelischen Jugendlichen zwischen 15 und 18 Jahren offenem Antisemitismus im Netz begegnet waren, 16 Prozent persönlich gegen sie gerichteten Attacken. Aufgrund der hohen Rate an Verunglimpfungen wie »Tod Israel« und »Holohoax« wird Twitter von der ADL als Hort klassischen Antisemitismus bestätigt.
Social-Media-Experten sind allerdings zurückhaltend, die Online-Welt als repräsentativ für die Gesellschaft zu erklären. Wenige schreiben viel, nicht nur Individuen, auch Organisationen sind im Netz aktiv, und bestimmte gesellschaftliche Gruppen nutzen soziale Medien mehr als andere, ohne dass es die Bevölkerungsstruktur widerspiegelt. Datensätze analysieren allein genügt also nicht, betonen die Analytiker Carl Miller und Steve Ginnis. »Wir müssen lernen, das alltägliche Leben der Menschen hinter den Daten zu verstehen, um aus Twitter, Facebook & Co. Schlüsse ziehen zu können.«
Wachstumsentwickler John West schreibt auf der Internetplattform Quartz, Tays Geschichte zeige die Kurzsichtigkeit der Tech-Welt und ihren Mangel an gesellschaftlicher Vielfalt. »Das Internet kann einem wie ein schrecklicher Ort vorkommen, nicht weil wir schreckliche Menschen sind, sondern weil wir es zu einer Müllverbrennungsanlage gemacht haben.«
»Turing-Test« Tay ist nach den virtuellen Assistentinnen Siri und Cortana der jüngste Versuch, den »Turing-Test« zu bestehen, das heißt, einen Computer so zu programmieren, dass der Nutzer nicht weiß, ob er mit Mensch oder Maschine kommuniziert. Dieser Versuch ist – hoffentlich – gescheitert. Selbststeuernde Autos, Sprach- oder Bilderkennungssoftware und Computer wie »Watson« und »AlphaGo«, die Menschen beim Spielen besiegen können, lassen kognitive Programme wie die »Möglichkeit eines Menschen« erscheinen, wie WELT-Medienredakteur Christian Meier es ausdrückt.
Jedoch könnten, wie Oliver Bendel, Experte für Maschinenethik und soziale Robotik, der Süddeutschen Zeitung sagte, Roboter, die sich verhalten wie Menschen, ein falsches Bild der Wirklichkeit vermitteln, da sie sich ihrer Umgebung nicht bewusst seien. Chatbots brauchten sogenannte Metaregeln, die garantieren, dass sie nie ihre Grenzen überschreiten und sich immer als Maschinen zu erkennen geben, fordert Bendel.
Microsoft hat versprochen, Tay zurückzubringen, wenn sie »Angriffe entschärfen« kann. Wenn Twitter dann noch rechtswidrige und rassistische Angriffe konsequenter aus dem Netz löscht, wie es seine Vereinbarung mit Deutschland und mehreren anderen Staaten verlangt, können wir vielleicht eines Tages mit Tay sagen: »Menschen sind supercool!«