Wenn es Spannungen in der Gesellschaft gibt, dann finden diese auch Ausdruck in den sozialen Medien. Plattformen wie Facebook sind ein Spiegel der Gesellschaft – mit mehr als 3 Milliarden Menschen, die jeden Monat die Dienste von Facebook nutzen, findet alles, was in unserer Gesellschaft gut, aber auch schlecht ist, auf unseren Plattformen seinen Ausdruck. Damit geht eine große Verantwortung einher: Facebook und andere Social-Media-Unternehmen müssen entscheiden, wo die Grenze zwischen akzeptablen und inakzeptablen Inhalten gezogen werden soll.
Facebook ist in den letzten Wochen nach seiner Entscheidung, umstrittene Postings von US-Präsident Donald Trump weiterhin zuzulassen, vielfach kritisiert worden. Viele Menschen, darunter auch Unternehmen, die auf unserer Plattform werben, haben Bedenken gegen unseren Ansatz zur Bekämpfung von Hassrede geäußert. Ich möchte unmissverständlich sein: Facebook profitiert nicht von Hassrede. Milliarden von Menschen nutzen Facebook und Instagram, weil sie gute Erfahrungen gemacht haben. Sie wollen keine hasserfüllten Inhalte sehen – genauso wenig wie unsere Werbekunden und wir selbst. Es gibt für uns keinen Anreiz, etwas anderes zu tun, als solche Inhalte zu entfernen.
Jeden Tag werden über unsere Dienste mehr als 100 Milliarden Nachrichten gesendet. Das sind wir alle – wir reden miteinander, wir teilen unser Leben, unsere Meinungen, unsere Hoffnungen und unsere Erfahrungen. In all diesen Milliarden von Interaktionen ist nur ein winziger Bruchteil hasserfüllt. Wenn wir Hassrede auf Facebook und Instagram finden, verfolgen wir einen Null-Toleranz-Ansatz und entfernen sie. Wenn Inhalte weder als Hassrede eingestuft werden noch gegen andere Richtlinien wie zum Beispiel Wahlbeeinflussung verstoßen, entscheiden wir uns im Zweifel für die freie Meinungsäußerung. Denn letztlich ist Gegenrede der beste Weg, verletzender, spaltender und beleidigender Rede entgegenzuwirken.
Leider bedeutet eine Null-Toleranz-Politik bezüglich Hassrede nicht, dass es keine Vorfälle gibt. Bei so vielen Inhalten, die jeden Tag veröffentlicht werden, ist das Entfernen von Hassrede wie die Suche nach der Nadel im Heuhaufen. Wir investieren jedes Jahr mehrere Milliarden US-Dollar in Mitarbeiter und Technologien, um unsere Plattform sicherer zu machen. Wir haben die Zahl der Menschen, die für die Sicherheit unserer Plattformen zuständig sind, verdreifacht – auf mittlerweile mehr als 35.000 Personen. Wir sind Vorreiter beim Einsatz Künstlicher Intelligenz, um hasserfüllte Inhalte in großem Maßstab zu entfernen.
Und wir machen echte Fortschritte. Ein kürzlich veröffentlichter Bericht der Europäischen Kommission ergab, dass Facebook 95,7 Prozent der Hassrede-Meldungen innerhalb von 24 Stunden überprüft hat, mehr als YouTube und Twitter. Mittlerweile erkennen wir fast 90 Prozent der Hasskommentare, die wir löschen, noch bevor Nutzer sie melden – vor zwei Jahren waren es lediglich 24 Prozent. Wir haben im ersten Quartal dieses Jahres Maßnahmen gegen 9,6 Millionen Inhalte ergriffen – gegenüber 5,7 Millionen im vorangegangenen Quartal. Und 99 Prozent der ISIS- und Al-Qaida-Inhalte, die wir entfernen, werden entfernt, bevor sie uns jemand meldet.
Wir werden besser – aber damit geben wir uns nicht zufrieden. Deshalb haben wir vor kurzem neue Richtlinien und Produkte angekündigt, um sicherzustellen, dass jeder sicher und informiert bleiben kann und letztendlich seine Stimme dort einsetzen kann, wo es am wichtigsten ist – bei politischen Wahlen. Dazu gehören die größte Informationskampagne in der Geschichte der USA mit dem Ziel, dass sich vier Millionen zusätzliche Wähler registrieren sowie die Aktualisierung unserer Richtlinien gegen Wahlbeeinflussung und Hassrede. Viele dieser Änderungen sind ein direktes Ergebnis des Feedbacks aus der aktuellen Bürgerrechtsbewegung – wir werden weiterhin mit zivilgesellschaftlichen Akteuren und anderen Experten zusammenarbeiten, während wir unsere Richtlinien an neue Risiken anpassen, sobald diese auftauchen.
Natürlich ist es notwendig und verständlich, sich auf Hassrede und andere Arten von schädlichen Inhalten in sozialen Medien zu konzentrieren, aber es lohnt sich, daran zu denken, dass die große Mehrheit dieser Milliarden von Gesprächen positiv ist.
Dafür hilft ein Blick zurück, als vor einigen Monaten die Coronavirus-Pandemie einsetzte. Milliarden von Menschen haben Facebook genutzt, um in Verbindung zu bleiben, auch wenn sie räumlich getrennt voneinander waren. Großeltern und Enkelkinder, Geschwister, Freunde und Nachbarn. Und mehr als das: Menschen kamen zusammen, um einander zu helfen: Millionen von Menschen haben sich in Abertausenden lokalen Gruppen organisiert, um füreinander da zu sein. Andere, um Angestellte im Gesundheitswesen zu ehren und zu unterstützen. Und als Geschäfte schließen mussten, war Facebook für viele die einzige Möglichkeit, mit Kunden in Kontakt zu bleiben. Mehr als 160 Millionen Unternehmen nutzen die kostenlosen Tools von Facebook, um ihre Kunden zu erreichen – und damit die Arbeitsplätze und Lebensgrundlagen der Menschen zu retten.
Besonders wichtig ist, dass Facebook den Menschen dabei half, genaue Gesundheitsinformationen zu erhalten. Wir haben mehr als zwei Milliarden Menschen von Facebook und Instagram auf Informationen der Weltgesundheitsorganisation und anderer öffentlicher Gesundheitsbehörden verwiesen. Mehr als 350 Millionen Menschen haben sich dabei durch die Informationen geklickt.
Und es lohnt sich, daran zu erinnern, dass die sozialen Medien Menschen eine Stimme geben, um sich auszudrücken und der Welt zu zeigen, was vor sich geht; um sich gegen Hass zu organisieren und sich solidarisch zu zeigen. Wir haben das auf der ganzen Welt bei unzähligen Gelegenheiten gesehen – und wir sehen es gerade jetzt im Rahmen der Black-Lives-Matter-Bewegung.
Wir werden es vielleicht nie ganz verhindern können, dass Hass auf Facebook auftaucht, aber wir werden immer besser darin, ihn zu stoppen.