Herr Baldauf, Facebook hat angekündigt, Holocaustleugnung weltweit auf der Plattform zu verbieten. Warum erst jetzt?
Es sind verschiedene Faktoren, die zu diesem Schritt geführt haben. Zum einen überprüfen wir ständig unsere Richtlinien. Zum anderen muss man das im Kontext einer anderen Policy-Aktualisierung im August sehen, mit der wir uns gegen das antisemitische Klischee wenden, dass Juden die Welt beherrschen. Und dann sind wir auch mit zahlreichen Organisationen zum Thema Antisemitismus im ständigen Austausch. Das Resultat dieser vielen Gespräche in Deutschland, Europa und weltweit hat uns zu diesem Schritt gebracht. Wir sehen eine drastische Zunahme an Hassverbrechen und Antisemitismus. Gleichzeitig sehen wir, wie alarmierend das Level an Unkenntnis über den Holocaust ist. Da ist klar, dass etwas passieren muss. Wir haben gleichzeitig angekündigt, dass wir nicht nur Holocaustleugnung und -verharmlosung entfernen. Noch in diesem Jahr werden wir eine neue Funktion ausrollen, sodass wir Leute mit weiterführenden Informationen versorgen, wenn sie zum Thema Holocaust entsprechende Begriffe suchen.
Noch vor zwei Jahren war Facebook-Chef Mark Zuckerberg der Auffassung, dass die Plattform Holocaustleugnung nicht löschen sollte. Woher kommt der Meinungsumschwung?
Das hängt stark mit den Gesprächen zusammen, die wir geführt haben. Und Mark Zuckerberg hat sich auch öffentlich dazu geäußert, warum er seine Meinung geändert hat. Ich weiß aus meiner persönlichen Sicht, dass Antisemitismus schon lange ein Problem ist. Deshalb bin ich auch nicht der Einzige im Unternehmen, der daran arbeitet, dass etwas geschieht. Es hat etwas gedauert, aber jetzt ist es passiert.
Facebook und Instagram wollen jetzt auch gegen die Verschwörungsmythen von »QAnon« vorgehen. Steht das alles womöglich im Zusammenhang mit der US-Wahl am 3. November?
Das sind Resultate von Gesprächen, die wir seit Langem führen, auch in Bezug auf Regeln im Umgang mit QAnon, die wir kürzlich angekündigt haben. Ich verstehe sehr gut, dass man, wenn man von außen darauf schaut, eine Verbindung zum Wahltermin herstellen kann. Ich kann Ihnen aus meiner Innensicht sagen, dass die vielen und langen Gespräche, die wir geführt haben, der Anlass sind.
Meinen Sie damit auch Gespräche mit Werbekunden, die im Rahmen der Kampagne »Stop Hate for Profit« im Sommer einen Facebook-Boykott verkündet haben, der Sie Milliarden kostete?
Nein. Wir führen die von mir erwähnten Gespräche mit Experten schon deutlich länger. Zum Beispiel haben wir auch mit jüdischen Organisationen in Deutschland Runde Tische, an denen wir solche Themen besprechen. Das ist uns nicht erst im Sommer nach der Kampagne eingefallen. Wir sind schon lange an dem Thema dran.
Wir auch. 2018 sagte der Internetpionier Jaron Lanier in einem Interview mit unserer Zeitung, Hass und Erregung seien das Geschäftsmodell von Facebook und den anderen Social-Media-Kanälen. Verdienen Sie mehr, je länger die Nutzer wütend auf der Plattform bleiben?
Es ist genau andersherum: Es ist eben nicht so, dass wir von Hass profitieren, vielmehr schadet uns das. Es ist nicht so, dass Leute dadurch mehr Zeit auf der Plattform verbringen oder Unternehmen Werbung schalten. Insofern ist das nicht in unserem Interesse – oder unser Modell. Wir haben da schon vor einiger Zeit klare Änderungen vorgenommen, die dafür sorgen, dass die Leute eben nicht möglichst viel Zeit auf der Plattform verbringen – sondern dass die Zeit, die sie auf der Plattform verbringen, wertvoll ist. Und eine wertvolle Zeit zeichnet sich nicht dadurch aus, dass man mit erregenden Inhalten konfrontiert wird, sondern dass man sich mit den Leuten austauschen kann, die einem wichtig sind, und dadurch einen Mehrwert hat. Durch Hass entsteht kein Mehrwert. Es ist ein gerne verwendetes Klischee, dass wir von Hass profitieren. Aber das trifft eben nicht zu.
Mark Zuckerberg hat sich lange mit Verweis auf die Redefreiheit Eingriffen verweigert. Beim »aktuellen Zustand der Welt« halte er jedoch jetzt ein Verbot für richtig. Welchen Anteil haben die sozialen Medien an diesem Zustand?
Man darf es sich mit einem derart monokausalen Ansatz nicht zu einfach machen. Das erleben wir auch in öffentlichen Debatten, dass gesagt wird, Facebook oder Social Media seien schuld daran, dass bestimmte Dinge passieren.
So monokausal war der Ansatz nicht. Die Gründe, warum sich die Gesellschaft immer mehr fragmentiert, sind vielfältig. Die Frage war, welchen Anteil Social Media hat.
Das ist nicht so leicht zu beantworten. Natürlich gibt es weltweit Veränderungen in Gesellschaften durch die Art, wie wir miteinander kommunizieren. Das bringt besondere Herausforderungen mit sich. Wir fördern viele Studien, die sich mit diesen Fragen beschäftigen. Zum Beispiel greift die Theorie der Filterblase zu kurz. Forscher kommen zu dem Schluss, dass sie nicht als Erklärungsmodell funktioniert. Es ist aktuell nicht möglich, die Frage so zu beantworten, wie Sie sie gestellt haben. Aber ich glaube schon, dass wir in den sozialen Medien einen Spiegel der Gesellschaft haben. Jedes Problem, das es in der Gesellschaft gibt, findet sich in den sozialen Medien wieder. Dadurch, dass Menschen miteinander vernetzt sind, entstehen Dynamiken, mit denen man umgehen muss. Ich glaube aber nicht, dass wir all diese Probleme nicht hätten, wenn wir keine Social Media hätten. Bestimmt ist es ein Faktor, wie die Menschen miteinander umgehen. Aber wenn wir darüber reden, ob das ein Hauptfaktor oder ein wichtiger Anteil in Bezug auf den Anstieg von Rassismus und Antisemitismus ist, dann greift das zu kurz.
Wann ist damit zu rechnen, dass die von Facebook angekündigten Maßnahmen greifen?
Es wird noch etwas dauern, bis wir die Leute entsprechend geschult haben. Ich kann keinen genauen Termin nennen. Die Policy ist jetzt draußen, sie ist gültig. Und wie bei allen Fragen, die unsere Community-Standards betreffen, gilt: Wenn wir auf etwas aufmerksam werden, sehen wir uns das auch an und kümmern uns darum.
Mit dem Public Policy Manager von Facebook Deutschland sprach Detlef David Kauschke.