Meta

Facebook veröffentlicht erstmalig Durchsetzungszahlen

Von Guy Rosen

Wir werden oft gefragt, wie wir entscheiden, was auf Facebook zulässig ist – und wie viel „Mist“ wir eigentlich finden. Schon seit Jahren haben wir Gemeinschaftsstandards, die erläutern, was bleiben darf und was entfernt wird. Vor drei Wochen haben wir nun zum ersten Mal die internen Richtlinien für die Durchsetzung dieser Standards veröffentlicht. Und heute legen wir einen Bericht über die Durchsetzung der Gemeinschaftsstandards mit den entsprechenden Zahlen vor, so dass ihr selbst unsere Performance beurteilen könnt.

Alex Schultz, unser Vice President für Data Analytics, erläutert sowohl in diesem Hard Questions-Post als auch in unserem Leitfaden zum Aufschluss über den Bericht über die Durchsetzung der Gemeinschaftsstandards detailliert, wie genau wir messen, was auf Facebook geschieht. Unsere Methodologie, was wir wie messen, ist noch in der Entwicklung. Je besser wir verstehen, was wichtig ist und was funktioniert, desto feiner können wir sie einstellen.

Dieser Bericht deckt unsere Durchsetzungsmaßnahmen im Zeitraum von Oktober 2017 bis März 2018 in sechs Bereichen ab: Drastische Gewaltdarstellung, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gefälschte Konten. Die Zahlen zeigen euch Folgendes:


Die meisten negativen bzw. schädlichen Inhalte, die wir entfernen, stehen im Zusammenhang mit gefälschten Konten und der riesigen Menge an durch sie generierten Spam. Beispiel:

Andere Inhalte, die gegen unsere Gemeinschaftsstandards verstoßen:

Wie Mark auf der F8-Konferenz sagte: Wir haben noch eine Menge Arbeit vor uns, um Missbrauch zu verhindern. Das liegt zum Teil daran, dass Technologien wie künstliche Intelligenz zwar sehr vielversprechend sind, es aber noch Jahre dauern wird, bis sie die meisten unerwünschten Inhalte effektiv erkennen, da der Kontext von enormer Wichtigkeit ist. Beispielsweise ist künstliche Intelligenz noch nicht gut genug, um festzustellen, ob jemand Hass schürt oder etwas beschreibt, das ihm passiert ist, und somit zur Sensibilisierung für das Thema beiträgt. Und wie ich bereits letzte Woche erläutert habe, benötigt Technologie riesige Mengen an Trainingsdaten, um aussagekräftige Verhaltensmuster zu erkennen. Und solche Daten stehen uns oft für weniger verbreitete Sprachen oder für weniger häufig gemeldete Fälle nicht zur Verfügung. Außerdem haben wir es in vielen Bereichen – gleichgültig ob es um Spam, Pornografie oder gefälschte Konten geht – mit sehr raffinierten Widersachern zu tun, die ständig ihre Taktiken ändern, um unsere Kontrollen zu umgehen. Demzufolge müssen wir unsere Maßnahmen kontinuierlich weiterentwickeln und anpassen. Aus diesem Grund investieren wir massiv in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen und in bessere Technologien, um Facebook für alle noch sicherer zu machen.

Außerdem veröffentlichen wir deshalb diese Informationen. Wir sind der festen Überzeugung, dass stärkere Transparenz im Laufe der Zeit zu erhöhter Rechenschaft und mehr Verantwortung führen kann. Die Veröffentlichung dieser Informationen trägt auch dazu bei, dass wir dies schneller erreichen. Der Bericht enthält dieselben Daten, mit denen wir intern unsere Effektivität messen – und jetzt könnt ihr sie sehen und selbst unseren Fortschritt beurteilen. Wir freuen uns auf euer Feedback.