Meta

Facebook veröffentlicht zweiten NetzDG-Transparenzbericht

Heute veröffentlichen wir unseren zweiten NetzDG-Transparenzbericht, wie vom Netzwerkdurchsetzungsgesetz (NetzDG) vorgesehen. Das Gesetz ist seit dem 1. Oktober 2017 in Kraft. Vorausgegangen war eine Diskussion darüber, wie man Hassrede bekämpfen kann.

Hassrede ist auf Facebook nicht erlaubt. Facebook entfernt Hassbotschaften, das heißt Inhalte, in denen Personen aufgrund sogenannter “geschützter Eigenschaften” direkt angegriffen werden. Dazu zählen Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität sowie schwere Behinderungen oder Krankheiten. Dies spiegelt sich in unseren Gemeinschaftsstandards wider und wir entfernen entsprechende Inhalte, wenn wir auf sie aufmerksam werden. Unser Ansatz entwickelt sich kontinuierlich weiter, auch dank des Feedbacks von Experten und Facebook-Nutzern. Gleichzeitig gibt uns Technologie neue Werkzeuge an die Hand, um noch schneller und präziser arbeiten zu können. Darüber hinaus haben wir uns mit den im deutschen Recht verankerten Werten sorgfältig auseinandergesetzt. Daher sind wir überzeugt, dass die überwiegende Mehrheit der Inhalte, die in Deutschland als Hassrede gelten, entfernt würde, wenn man sie auf einen Verstoß gegen unsere Gemeinschaftsstandards überprüft.

Der NetzDG-Meldeweg ist ein gesonderter Meldeweg, der unabhängig von unserem üblichen Meldeprozess nach Gemeinschaftsstandards ist. Wenn Personen Inhalte melden wollen, von denen sie glauben, dass sie gegen die im NetzDG genannten Straftatbestände verstoßen, können sie das NetzDG-Meldeformular nutzen.

Der Transparenzbericht beinhaltet unter anderem die Gesamtzahl der über das Meldeformular übermittelten Beschwerden (“NetzDG-Beschwerden”), die Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben, sowie Informationen darüber, wie viele Personen NetzDG-Beschwerden bearbeiten.

  • Gesamtzahl der Beschwerden: Im Zeitraum zwischen 1. Juli 2018 und 31. Dezember 2018 wurden uns insgesamt 1048 Inhalte in 500 NetzDG-Beschwerden gemeldet (Nutzer können mehrere Inhalte in einer einzigen NetzDG-Beschwerde anführen).
  • Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben: Von diesen wurden 369 Inhalte infolge einer NetzDG-Beschwerde gelöscht oder gesperrt (ca. 35%). Insgesamt haben 159 NetzDG-Beschwerden dazu geführt, dass Inhalte gelöscht oder gesperrt wurden.
  • Anzahl der Personen, die NetzDG-Meldungen prüfen: NetzDG-Beschwerden werden durch Teams aus geschulten Fachkräften und Juristen geprüft. Zu diesen Teams zählen derzeit insgesamt 63 Personen. Diese Personen sind auch in anderen Bereichen als der Bearbeitung von NetzDG-Beschwerden tätig, je nach Beschwerdeaufkommen.

Im Vergleich zum ersten Berichtszeitraum gab es in der zweiten Jahreshälfte 2018 einen Anstieg in der Qualität der NetzDG-Beschwerden und dadurch eine höhere Sperr-/Löschquote (35% gegenüber 21%). Während die Gesamtzahl der Inhalte, die in der zweiten Jahreshälfte 2018 über NetzDG-Beschwerden gemeldet wurden, im Vergleich zur ersten Jahreshälfte 2018 zurückging, blieb die Zahl der letztendlich gelöschten oder gesperrten Inhalte infolge einer NetzDG-Beschwerde etwa gleich (369 in der zweiten Jahreshälfte 2018 gegenüber 362 in der ersten Jahreshälfte 2018).

Unser Vorgehen gegen Hassrede

Unabhängig vom NetzDG arbeiten wir hart daran, Hassrede zu entfernen, sobald wir darauf aufmerksam werden. So haben wir in den letzten Jahren erhebliche Fortschritte gemacht, indem wir unsere Gemeinschaftsstandards und deren Durchsetzung verbessert haben. Unseren Ansatz hat Mark Zuckerberg im November letzten Jahres ausführlich beschrieben. Außerdem haben wir das Team, das sich bei Facebook mit Sicherheitsfragen beschäftigt, deutlich vergrößert: Das Team hat mittlerweile mehr als 30.000 Mitarbeiter, von denen etwa die Hälfte Inhalte überprüft. Es besteht sowohl aus Facebook-Mitarbeitern also auch aus Mitarbeiter von Unternehmen, mit denen wir zusammenarbeiten. Inhalte werden an über 20 Standorten auf der ganzen Welt überprüft, beispielsweise in Deutschland, Irland, Lettland, Spanien und den USA. Weitere Informationen zu der Arbeit dieser Teams finden sich hier. In Deutschland werden Inhalte an zwei Standorten (Essen und Berlin) von rund 2.000 Personen auf mögliche Verstöße gegen die Gemeinschaftsstandards von Facebook überprüft.
Zudem helfen uns neue Technologien wie Maschinelles Lernen, Computer Vision und Künstliche Intelligenz, unangemessene Inhalte noch schneller und in einem weitaus größeren Umfang zu finden als es Menschen je könnten.

Seit letztem Jahr veröffentlichen wir regelmäßig Berichte, die darlegen, wie viele Inhalte wir aufgrund von Verstößen gegen unsere Gemeinschaftsstandards beispielsweise im Bereich Hassrede entfernen. Außerdem zeigen die Berichte, wie viele dieser Inhalte mithilfe unserer Technologien entdeckt wurden, bevor sie jemand melden konnte. Weltweit haben wir im Zeitraum von Juli bis September 2018 rund 2,9 Millionen Inhalte entfernt, weil sie gegen unsere Richtlinien für Hassrede verstoßen haben. Innerhalb eines Jahres konnten wir die Anzahl der Inhalte, die wir selbst entdeckt haben, noch bevor sie uns gemeldet werden konnten, von 24% auf 52% mehr als verdoppeln. Weitere Informationen zu unseren aktuellen Durchsetzungszahlen finden Sie hier.

Wir wissen, dass uns bei der Anwendung unserer Gemeinschaftsstandards Fehler unterlaufen können. Aus diesem Grund haben wir im letzten Jahr die Möglichkeit geschaffen, bei einzelnen Beiträgen gegen unsere Entscheidungen Einspruch zu erheben. Dadurch können Menschen eine Entscheidung erneut überprüfen lassen, wenn sie der Meinung sind, dass wir einen Fehler gemacht haben. Außerdem arbeiten wir an einer neuen Möglichkeit, mit der Menschen bei einem unabhängigem Gremium Beschwerde gegen Entscheidungen einlegen können. Anfang dieser Woche haben wir den Entwurf einer Charta veröffentlicht, der mehr Details über die mögliche Zusammensetzung eines solchen Gremiums (Oversight Board) enthält. Weitere Informationen dazu finden Sie hier.

Wir arbeiten hart daran, unangemessene Inhalte von unserer Plattform zu entfernen und Informationen darüber bereitzustellen, wie wir dabei vorgehen. Unsere Teams arbeiten daran, für zukünftige Berichte zur Durchsetzung unserer Gemeinschaftsstandards noch mehr Informationen aufzubereiten.
Unsere Arbeit am NetzDG-Transparenzbericht findet parallel zu den zuvor beschriebenen globalen Datenanalysen statt. Wir halten uns dabei an die spezifischen Vorgaben des NetzDG.

NetzDG-Transparenzbericht – Deutsch
NetzDG Transparency Report – English
Hilfebereich / Help Centre



Wir setzen Cookies ein, damit wir Content personalisieren, Anzeigen individualisieren und messen und eine sichere Erfahrung bieten können. Indem du mit der Navigation auf der Seite fortfährst oder auf Inhalte klickst, stimmst du der Erfassung von Informationen auf und außerhalb von Facebook über Cookies zu. Mehr erfahren, auch zu den verfügbaren Steuerelementen: Cookie-Richtlinie