Heute veröffentlichen wir unseren sechsten NetzDG-Transparenzbericht, wie vom Netzwerkdurchsetzungsgesetz (NetzDG) vorgesehen.
Wenn eine Person der Ansicht ist, dass Inhalte auf Facebook gemäß einer oder mehrerer der im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs rechtswidrig sind, kann sie diese Inhalte über das NetzDG-Meldeformular von Facebook melden. Dieses Formular ist ausschließlich für Beschwerden wegen Verstößen gegen die im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs vorgesehen und steht seit dem 1. Januar 2018 für Nutzer in Deutschland zur Verfügung.
Der Transparenzbericht beinhaltet unter anderem die Gesamtzahl der über das Meldeformular übermittelten Beschwerden (“NetzDG-Beschwerden”), die Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben, sowie Informationen darüber, wie viele Personen NetzDG-Beschwerden bearbeiten.
- Gesamtzahl der Beschwerden: Im Zeitraum zwischen 1. Juli 2020 und 31. Dezember 2020 wurden uns insgesamt 4.401 Inhalte in 4.211 NetzDG-Beschwerden gemeldet (Nutzer können mehrere Inhalte in einer einzigen NetzDG-Beschwerde anführen).
- Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben: Von diesen wurden 1.276 Inhalte infolge einer NetzDG-Beschwerde gelöscht oder gesperrt (ca. 29 %). Insgesamt haben 1.117 NetzDG-Beschwerden dazu geführt, dass Inhalte gelöscht oder gesperrt wurden.
- Anzahl der Personen, die NetzDG-Beschwerden prüfen: NetzDG-Beschwerden werden durch Teams aus geschulten Fachkräften und Juristen geprüft. Zu diesen Teams zählen derzeit insgesamt 73 Personen. Diese Personen sind auch in anderen Bereichen als der Bearbeitung von NetzDG-Beschwerden tätig, je nach Beschwerdeaufkommen.
Unser Vorgehen gegen Hassrede
Unabhängig vom NetzDG arbeiten wir hart daran, unzulässige Inhalte von unserer Plattform zu entfernen und Informationen darüber bereitzustellen, wie wir dabei vorgehen. Wir veröffentlichen quartalsweise Berichte, die darlegen, wie viele Inhalte wir aufgrund von Verstößen gegen unsere Gemeinschaftsstandards, wie beispielsweise Hassrede, entfernen. Außerdem zeigen die Berichte, wie viele dieser Inhalte mithilfe unserer Technologien entdeckt wurden, bevor sie jemand melden konnte. Weltweit haben wir im Zeitraum von Juli bis September 2020 rund 22,1 Millionen Inhalte entfernt, weil sie gegen unsere Richtlinien für Hassrede verstoßen haben. Mittlerweile erkennen wir fast 95 Prozent der Hasskommentare, die wir löschen, noch bevor Nutzer sie melden – vor drei Jahren waren es lediglich 24 Prozent. Für zukünftige Berichte möchten wir noch mehr Informationen aufbereiten und unterziehen unsere Metriken einer unabhängigen, externen Prüfung.
Wir wissen, dass uns bei der Anwendung unserer Gemeinschaftsstandards Fehler unterlaufen können. Aus diesem Grund geben wir Facebook-Nutzern die Möglichkeit, eine Entscheidung erneut überprüfen zu lassen, wenn sie der Meinung sind, dass wir einen Fehler gemacht haben. Außerdem haben wir mit dem Oversight Board ein unabhängiges Gremium geschaffen, das ausgewählte, umstrittene Entscheidungen zu Inhalten auf Facebook überprüft. Seit Oktober 2020 nimmt das Board Beschwerden von Nutzerinnen und Nutzern entgegen. Am 28. Januar 2020 hat das Board die ersten Entscheidungen veröffentlicht, die für Facebook bindend sind. Weitere Informationen dazu finden Sie auf der Webseite des Oversight Board und hier in unserem Newsroom.